Praxischeck: Wie KI meine nervigsten Aufgaben löst

Was kann KI wirklich? c't-3003-Host Jan-Keno Janssen zeigt anhand konkreter Beispiele, wie er künstliche Intelligenz im Alltag nutzt.

vorlesen Druckansicht 60 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 27 Min.
Inhaltsverzeichnis

KI spaltet die Technik-Gemeinde: Die einen halten es für die folgenreichste Entwicklung des Jahrtausends, die anderen zucken nur mit den Schultern und sagen: "Interessiert mich nicht, kann ich nicht gebrauchen". In diesem Videos zeigt c't-3003-Host Jan-Keno Janssen ganz konkret, was er täglich mit KI macht, wo KI ihm hilft – und wo noch nicht: Ein KI-Browser bewältigt selbstständig (!) Online-Schulungen, Text-KIs korrigieren Transkripte, erstellen Visualisierungen und beantworten komplexe Fragen, mit "Vibe-Coding" entstehen komplette JavaScript-Anwendungen ohne jegliche Programmier-Kenntnisse.

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guckt mal hier, das bin ich, wie ich mich in Rage rede und allen, die es hören wollen und allen anderen, die es nicht hören wollen, erzähle, dass KI wirklich heftig die Welt verändern wird. Sowohl auf gute als auch auf schlechte Weise. Und ja, es ist mir total bewusst, dass das Leute nervt. Auch viele von euch, die unter c't 3003 KI-Videos schreiben, jetzt macht doch mal was anderes, KI ist doof und langweilig und overhyped. Ich höre euch.

Und statt jetzt hier so oberlehrerhaft zu erklären, warum ich recht habe und ihr nicht und KI die Welt komplett auf links krempeln wird, dachte ich mir, ich zeige einfach mal ganz neutral, wie ich ganz persönlich im Berufs- und Privatleben KI benutze, ohne Gehype und irgendwelche halbgaren Sachen. Also wirklich nur Zeug, was jetzt schon zuverlässig funktioniert und wenn es nicht richtig funktioniert, dann sage ich das natürlich auch. Ich versuche so gut es geht, hier so KI-Oberchecker-Talk rauszulassen, und alles so klar und verständlich zu erklären, wie ich kann. So, dass das Video hoffentlich auch von Leuten geguckt werden kann, die eben nicht knietief in der Technik stecken. So, let's go, wird aufregend, verspreche ich.

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei...

Also, auf die Idee zu diesem Video hat mich ehrlich gesagt ein c't-Kollege gebracht, dessen Namen ich jetzt hier nicht nenne. Der meinte nämlich: "Ja, okay, ich krieg mit, dass sich paar Leute offenbar für den ganzen KI-Kram interessieren und ich schreib da auch mal einen Artikel drüber oder so, aber ich persönlich verstehe null, für was ich das jemals benutzen soll." Ja, und das während ich da so wild herumgestikulierend vom Ende der Welt, wie wir sie kennen, fabuliere. Und das ist ja ein riesiger Punkt. Ein riesiger Clash. Also zwischen den Leuten, die immer von KI labern, wie ich, und denen, denen das halt sonst wo vorbeigeht. Ja, und deshalb dachte ich, dass ich immer auf entspannt zeige, wozu ich das regelmäßig benutze und was ich damit mache. Also, los geht's.

Okay, das was jetzt kommt, das hat mich wirklich selbst überrascht. Ich hätte nicht gedacht, dass das so einfach funktionieren wird. Also, aber der Reihe nach. Ihr kennt ja vielleicht diese Pflichtschulungen, die man in Unternehmen ab einer bestimmten Größe absolvieren muss. Also sowas wie Verwaltungsarbeitsplatz oder Räumungsmanagement. Bei meinem Arbeitgeber, also bei heise, läuft das als Web-based Training. Das heißt, ich gucke mir im Browser Lehrmaterialien an und muss dann danach so einen Multiple-Choice-Test machen.

So, ich kann mir vorstellen, dass ihr inzwischen auch schon wisst, wo das hier hinführt. Erstmal kurz ein Disclaimer: Ja, das sind alles wichtige Schulungsthemen, die man auch wissen muss. Ich will auch wirklich unter keinen Umständen sagen, dass man da cheaten soll und dass das unnötig ist. Ich arbeite nur halt schon so lange bei heise. Ich habe die beiden und dieselben Schulungen schon sehr, sehr oft gemacht habe und die meisten von denen muss man einmal im Jahr wiederholen. Das heißt, ich muss mich da immer wieder durchklicken, obwohl ich den Text schon so gut wie auswendig kenne. Das Schlimme ist auch, dass man nicht einfach schnell da durchklicken kann und sofort den Test machen kann, sondern man muss jede dieser Texttafeln eine bestimmte Zeit angucken, bevor man weiterklicken darf. Ich muss also immer eine halbe Minute warten, bis ich weiterklicken kann, obwohl ich den Text auswendig kenne. Und es macht mich komplett wahnsinnig.

Dann habe ich das so lange ausgesessen mit diesen Schulungen. Dass ich schon böse Mails aus der Geschäftsführung bekommen habe, dass ich diese Quizzes nun echt mal absolvieren soll. Und dann dachte ich mir: Ach, okay, ich versuche das jetzt mal mit KI. Aus wissenschaftlich-journalistischer Neugierde natürlich. Als Experiment. Ich hatte kurz vorher aufgeschnappt, dass es ein Open-Source-Tool namens Browser Use gibt. Das wollte ich sowieso mal ausprobieren. Das ist übrigens das Gleiche, was bei dem sehr gehypten Manus AI im Hintergrund läuft, aber das nur am Rande.

Also ich habe Browser Use über Pinokio installiert. Pinokio ist so ein Tool, um Open-Source-KI-Python-Projekte komfortabel mit einem Klick zu installieren. Hatten wir schon mal ein Video drüber gemacht. Und ja, dann musste ich noch meinen OpenAI-API-Key da eingeben. Ja, das ist kostenpflichtig. Aber weil Browser Use halt GPT-4o empfiehlt, dachte ich, ich mache das jetzt mal auch so lehrbuchmäßig. Man kann Browser Use auch mit lokal laufenden Open-Source-Modellen benutzen. Das ist natürlich auch datenschutzmäßig sicherer. Aber wie gesagt, ich habe das empfohlene GPT-4o benutzt, um erst mal nur zu gucken, was das im besten Fall für den Anwendungsprozess ist.

Und dann habe ich mich in den Browser eingeloggt. Also manuell. Weil klar, mein Account und das Passwort wollte ich jetzt nicht in den Prompt schreiben. Sollte man unbedingt vermeiden. Allgemein sollte man diese Autopilot-mäßigen KI-Tools sowieso immer nur mit Accounts verwenden, bei denen keine überlebensnotwendigen Dinge passieren. Und vor allem, wo ihr auch Accounts benutzt, die nicht so wichtig sind. Also hier benutze ich halt wirklich ein Wegwerf-Passwort. Was wirklich nur für diese Quiz-Seite funktioniert. Also das ist jetzt irgendwie wirklich kein großer heise-Account, wo irgendwelche sicherheitstechnisch relevanten Sachen laufen, sondern nur diese Quizze. Einfach weil man nicht weiß, wie buggy das noch ist und weil das Ding natürlich permanent Screenshots macht und zu OpenAI schickt. Also das im Hinterkopf haben.

So, ich bin dann auf jeden Fall Kaffee trinken gegangen. Und als ich wiederkam, hat das Ding wirklich drei von vier Tests komplett autonom gelöst. Es war dann irgendwo festgefahren bei einer Frage. Beim vierten Quiz. Und da habe ich dann manuell eine Frage beantwortet und dann lief es automatisch weiter. Mehr habe ich nicht gemacht. Also ich habe einmal klicken müssen für alle vier Quizzes. Ja, und es hat einfach komplett alle vier dieser Quizzes gelöst. Ohne Eingriff. Bis aufs Einloggen und den einen Klick.

Jetzt habe ich erstmal ja Ruhe, bin natürlich auch ins Grübeln gekommen, weil genau wie an Schulen man sich überlegen muss, ob Hausaufgaben in Zeiten von generativer KI noch sinnvoll sind, muss man sich also auch auf jeden Fall bei solchen Browser-basierten Lehrgängen überlegen, ob man das wirklich so machen will, weil die Leute das eben so lösen können. Und das natürlich auch nicht ohne weiteres von außen erkennbar ist, ob die Arbeitnehmer das jetzt mit KI gelöst haben oder selbst. Und was mich natürlich dann auch noch ins Grübeln bringt. Es gibt ziemlich viele Jobs, die genau daraus bestehen, Informationen in Textform zu verstehen und zu verarbeiten. Also zum Beispiel in Form von ausgefüllten Formularen und dann Regeln darauf anzuwenden und das Ergebnis dann in andere Formen zu bringen. Also als Text. Eintragen oder als Präsentation. Das sind ziemlich viele Jobs, die so funktionieren. Ist also die Frage, wie lange solche Jobs noch von Menschen gemacht werden. Aber ich würde sagen, das kann man zum aktuellen Zeitpunkt noch nicht gut prognostizieren. Deshalb erstmal nur am Rande. Noch mehr dazu auch im Fazit.

Ich habe eine klare Regel als Journalist und das gilt auch generell für c't 3003: Kein kreativer Output von generativer KI. Nie. Also keine generierten Bilder im Video oder in Thumbnails. Keine generierten Texte auch nicht in den Videobeschreibungen und natürlich im Skript sowieso nicht. Also klar, wenn ich ein Video über Bildgenerierer mache, dann zeige ich natürlich Bilder davon, aber halt nicht, wenn es nicht um das Thema geht. Und das ist jetzt keine Technikfeindlichkeit von meiner Seite. Ihr kennt mich ja. Ich bin natürlich Technik-Nerd und Technik-Fan.

Aber ich glaube, dass uns hier im Internet und hier auf YouTube eine riesige Welle von AI slop überrollen wird. Also dieser Fachbegriff. Setze ich ja gerade durch. Das ist also AI slop, also billig und schnell produzierte KI-Inhalte. Orangutini, Ananasini, Puppa, Badabim, Ananas, Succhi, Monkey, Monkey, Monkey, Uchi. Und ich denke, dass Leute davon schnell genervt sein werden oder auch es schon sind. Und ich glaube auch daran, dass Leute echte Menschen sehen wollen und dass es so was in kreativen Funken gibt, den auch in Zukunft nur Menschen erzeugen können. Und das hat auch natürlich mit meinem Selbsterhaltungstest zu tun. Weil wenn wir sagen: "Och komm, kein Bock diese Woche. Lass das nächste Video mal eine KI generieren." Dann könnten wir den Laden hier auch ganz dicht machen. Aber wie gesagt, ich glaube, dass ihr da draußen auch in Zukunft immer merkt, ob irgendwas von Menschen gemacht ist oder von Maschinen. Und deswegen gibt es uns noch ein bisschen.

Das ist jetzt nur der Vorrede, wozu ich aber in meiner täglichen Arbeit regelmäßig KI verwende, um stumpfe Fleißarbeiten zu erledigen. Zum Beispiel die Texttranskripte zu unseren Videos von KI. Die können wir ja auch korrigieren. Die Transkripte veröffentlichen wir ja einmal auf heise online. Aber wir nutzen die auch als Untertitel hier auf YouTube, weil die automatisch generierten unserer Meinung nach ziemlich schlecht sind.

Also ich mache mein Video komplett ohne KI-Hilfe, wie gesagt. Aber wenn das Video fertig ist, nehme ich die Tonspur und lasse die von Whisper, einem Open-Source-Audio-to-Text-Tool von OpenAI in Text umwandeln. Das ist dann aber so eine Wall of Text ohne Absätze und mit einigen Fehlern noch drin. Weil Whisper zwar gut funktioniert, aber Eigennamen und sowas klappen auch nicht.

So und dann überfliege ich ganz grob das Transkript und sehe dann schon, welche wiederkehrenden Wörter problematisch sind. Dann sage ich einer textbasierten KI, also zum Beispiel ChatGPT: Bitte korrigiere dieses Transkript komplett und füge Absätze ein. Erfinde nichts dazu. Ändere die Grammatik nicht. Korrigiere ausschließlich Tipp- und Kommafehler. Fasse nichts zusammen. Lasse nichts weg. Achte besonders auf Begriffe, die man mit Bindestrichen schreibt. Schwierige Wörter, die vorkommen: c't, c't-Redakteure, c't 3003, Ollama und Open WebUI. Das war jetzt in dem Transkript so. Und ja, das funktioniert sehr zuverlässig. Zumindest, wenn man das Kontextfenster nicht überreizt, also das Transkript nicht zu lang ist. Ist es das, kann man das natürlich einfach splitten und mehrfach da reinwerfen. Also lesen sollte man es auf jeden Fall am Ende nochmal. Aber das liegt ja auf der Hand.Was ich auch sehr gerne mache, wenn ich irgendwelche Daten in eine Tabelle geschmissen habe, also zum Beispiel hier eine Übersichtstabelle über europäische Mailprovider aus dem letzten Video, dann lasse ich die von KI schön machen. Das kann meiner Meinung nach sehr gut funktionieren. Das macht Anthropic Claude besonders gut. Also einfach als Komma getrennte Textdatei exportieren, aus Excel oder Google Sheets in Claude schmeißen und sagen: Mach mal schön mit so grünen Häkchen und der Balken oben soll violett sein. Macht Claude das schön. Mit Farben und kleinen Häkchen, sodass ich das direkt verwenden kann. Und wenn ich irgendwelche Messwerte habe, also zum Beispiel Benchmarks, kann ich dann auch einfach Balkendiagramme ausgeben lassen. Oder mir generell helfen lassen, so nach dem Motto: Welche Visualisierungsform eignet sich gut dafür? Das ist übrigens meines Erachtens nicht gegen meine "Keine KI-Bilder"-Regel, weil es ja hier wirklich nur eine Umstellung von meinen selbst ermittelten Informationen in ein Diagramm oder eine Tabelle ist. Also eine Funktion, die Office-Programme ja seit Jahrzehnten mitbringen, nur fällt halt einiges an Klick und Handarbeit weg.

Ich kann zum Beispiel auch nicht gut Tabellenkalkulationen und habe mir da immer einen abgegoogelt, wenn ich da irgendwelche Formeln einbauen wollte. Mit KI gelingt mir das jetzt viel einfacher. Also ob in Google Sheets oder in Excel kann ich einfach Tipps machen. Ich kann dann einfach tippen, was ich machen will und ich kriege dann direkt gesagt, was ich tun soll, also wo ich welche Formeln hinschreiben soll. Leider wird es noch nicht direkt gemacht, sondern ich muss es noch übertragen. Aber es ist trotzdem noch einfacher als googeln. Die KI-Features in Microsoft 365 und Google Docs sind allerdings kostenpflichtig. Man braucht also ein Abo dafür.

Was ich auch schon ein paar Mal benutzt habe, weil ich das auch absolut faszinierend finde: Ein kompliziertes langes PDF, zum Beispiel wissenschaftliche Paper, als Podcast zusammenfassen zu lassen. Ein NotebookLM, leider aber zurzeit noch auf Englisch. Aber ich finde es einfach krass. Ich habe mal die c't-Erstausgabe da reingeworfen. Also als Quelle gehen alle Sprachen, nur der Output ist halt Englisch. Und das ergibt wirklich Sinn, was die beiden KI-Sprecherinnen und -Sprecher da erzählen. Es ist sogar unterhaltsam, wie sie sich darüber beömmeln, was für wilde Werbeanzeigen da drin waren. Und dass c't früher ein c't-Software-Service angeboten hat mit Programmen auf Kassette. They actually had this service. The c't-Software-Service. Offering programs on, get this: Kassette, floppy disk and even EEPROM. That's a blast from the past. Seriously, what does that tell you about how people were getting software back then? Well, it definitely shows how fragmented things were. Aber auch hier ist interessant, kann man machen, aber man muss immer im Hinterkopf behalten, dass da auch Quatsch erzählt werden könnte, der nicht im Quelldokument steht. Also wenn ihr auf eine Klausur oder so lernt, bisschen aufpassen.

Also ganz klar, ich benutze wirklich immer weniger Suchmaschinen, wenn ich irgendwas wissen will, sondern frage immer öfter KI-Systeme. Dabei unterscheide ich ziemlich stark zwischen Fragen, die Sprachmodelle aus dem internen Wissen beantworten können, also solche grundlegenden Sachen wie: Unterscheiden sich Strom und Spannung? Spezifischere Dinge sollte man Systeme fragen, die aufs Netz zugreifen können. Also die wirklich praktische KI-Suchmaschine Perplexity hatten wir schon im Video. Oder zum Beispiel bei ChatGPT vorher das Suche-Feld anklicken.

Ein Beispiel: Weil ich demnächst in ein FSME-Risikogebiet fahre, also die Krankheit, die von Zecken übertragen wird, und ich da viel in der Wildnis sein werde, habe ich mich neulich zum Beispiel über eine FSME-Impfung informiert. Also wann und wie oft ich mich impfen lassen muss, um zum Reisetermin vollen Impfschutz zu haben. Klar, könnte ich mir das alles ergoogeln und könnte dann irgendwie gucken, aha zwei Wochen, aha drei Wochen, da da da. Da habe ich jetzt einfach den Termin eingetragen und dann hat mir das Ding gesagt: Bis zum so und sovielten musst du das und das gemacht haben. Das ist natürlich praktisch, weil ich nicht so viel denken muss. Man sollte aber sowieso gerade bei so medizinischen Sachen immer die Quellen angucken und einen Plausibilitäts-Check machen, weil KI-Systeme immer noch halluzinieren können, also Quatsch erzählen können.

Was aber auf jeden Fall für mich nochmal ein Game-Changer ist, dass die Systeme Bilder verstehen können. Also zum Beispiel bei der Bestimmung von Tieren und Pflanzen. Das geht echt gut. Neulich meinte mal eine Freundin, sie hätte eine Bettwanze gefunden und dann habe ich ein Foto davon gemacht und konnte ihr dann ziemlich sicher Entwarnung geben. Ich finde interessant, dass ChatGPT auch gar nicht so rumeiert und sagt: "Mmmh, könnte das und das sein?" Sondern ganz klipp und klar sagt: "Das ist auf keinen Fall eine Bettwanze, sondern eine Bernstein-Waldschabe."

Oder was auch wild ist, der Live-Video- und Sprachmodus von ChatGPT. Den Advanced Voice Mode, hatten wir in ein eigenes Video zu, wo man so in ganz normaler Sprache sprechen kann. Da ist aber jetzt auch noch ein Video-Modus dazu gekommen, also dass man das, was das Handy sieht, sozusagen einspeisen kann. Und neulich musste ich meine Platte unter Linux auf der Kommandozeile partitionieren und ich wusste nicht mehr ganz genau, wie man das macht. Und ich habe dann einfach mal testweise die Kamera auf dem Bildschirm gerichtet und mir von ChatGPT diktieren lassen, was ich eintippen muss. Es sieht so aus, als wäre gparted nicht installiert. Du kannst es mit sudo apt install gparted installieren und dann nochmal versuchen, es zu starten. Das ging, aber ehrlich gesagt, war es nicht so einfach. Es war nicht ganz so effektiv, als einfach per Textkommando zu fragen, was ich genau eingeben muss, um das hinzukriegen und dann einfach mit Copy und Paste die Befehle übertragen.

Generell muss ich aber sowieso sagen, dass so spezifische Computerprobleme in Bereichen, in denen ich nicht so richtig fit bin, wie Netzwerk-Routing oder so, dass ich da wirklich deutlich schneller ans Ziel komme als mit Suchmaschinen. Einfach weil die Systeme direkt mein ganz spezifisches Szenario beantworten und mir dann wirklich genau sagen, was ich da tun soll.

Ich bin total beeindruckt, dass die Systeme sogar sowas wie Ästhetik und Symbolik verstehen. Also wie Dinge visuell auf Menschen wirken. Was man zum Beispiel machen kann, ein Foto von sich von ChatGPT roasten zu lassen. Also scherzhaft kritisieren zu lassen. Also als ich das mit meinem Foto gemacht habe, habe ich gekriegt: "Bruder, du siehst aus, als wärst du im Friseursalon eingeschlafen und der Lehrling hatte nur noch fünf Minuten bis Feierabend. Post-Apokalypse-Wikinger auf einem Budget-Frisur. Kommt mir nicht mit Hipster. Das hier ist nicht Berlin-Kreuzberg." Sondern der Beweis, dass man manche Trends einfach sterben lassen sollte.

Also ich finde es beeindruckend und ChatGPT checkt auch, dass das Design der c't, das ist ja eine bewusste Entscheidung von uns, nicht wirklich hip aussieht. Da sagt ChatGPT: "Na, wenn dieses Cover nicht direkt aus dem Jahr 2003 zu uns rübergebeamt wurde, weiß ich auch nicht." Dieser quietschblaue Hintergrund lässt einen glauben, man habe aus Versehen den Windows XP Desktop fotografiert und ihn dann mit WordArt-Schrift bepflastert. "c't sich gerne als Europas größtes IT- und Tech-Magazin betitelt. Ist ja nett, aber konnten die sich nicht bei all dem Ruhm nicht auch mal ein zeitgemäßes Cover leisten?" Das erinnert alles an eilig zusammengeklickten PowerPoint-Foliensatz für den IT-Grundkurs an der VHS.

Ja, Vibe-Coding heißt ja das aktuelle Super-Buzz-Word. Also Coden, indem man nur so locker aus dem Handgelenk beschreibt, was man so haben will. Und dann codet die KI einem das. Und ich habe dann ziemlich intensiv experimentiert. Ich habe das mit Claude Code gemacht, weil ich auch dieses Kommandozeilen-Interface irgendwie so ziemlich nice finde. Und ich habe dann zum Beispiel diese im Browser lauffähige Demo in JavaScript bauen lassen. Wobei ihr wirklich im Hinterkopf haben müsst: Ich kann kein bisschen JavaScript. Ich habe keine Templates oder so verwendet. Ich habe einfach gesagt, ich möchte hier so einen Scroll-Text haben und hier so wilde Wireframes.

Die habe ich übrigens auch KI generieren lassen. Mit einem lokalen Tool sogar. Nämlich mit DiffRythm. Also lokal auf meiner Grafikkarte. Den Text habe ich aber selbst geschrieben. Aber sonst alles KI und Vibe-Coding. Und sieht doch ziemlich cool aus, oder? Das ist allerdings das Endresultat. Und ich muss sagen, das war dann doch schon ziemlich mühselig, weil er immer wieder was weggelassen hat. Wenn ich gesagt habe: "Mach mal dies, mach mal das." Und dann hat wieder irgendwas nicht funktioniert. Und ich musste immer wieder sagen: "Versuch es nochmal. Da fehlt dies. Versuch nochmal. Hier fehlt jetzt die Musik." Und dann wurde auch der Source-Code immer leer. Und irgendwann wurde dann auch der Kontext, also das, was das System im Hinterkopf haben muss, immer voller. Und irgendwann war es dann ganz voll. Da musste ich nochmal ganz von vorne anfangen. Am Ende habe ich es dann hinbekommen. Aber es war dann auch ziemlich teuer. Weil man zahlt 3 Dollar pro Million Input-Tokens und 15 Dollar pro 1 Million Output-Tokens. Das sind dann auch die Denk-Tokens. Also wenn das Sprachmodell mit sich selbst spricht und denkt. Ganz kurz, was Tokens sind. Das sind ganz grob über den Daumen gepackt. Ungefähr 4 Zeichen. Und meine Demo-Entwicklung ging dann so oft hin und her, dass das Ding am Ende über 20 Euro gekostet hat. Ist es das wert? I don't know.

Klappt allerdings so ein Vibe-Coding-Projekt von Anfang an, also als sogenannter One-Shot. Also dass man einmal sagt, was man haben will. Und dann kriegt man das. Und dann ist es direkt optimal. Dann kostet das wirklich nur einstellige Centbeträge. Zum Beispiel hier mein c't-Cover-Museum mit Ego-Shooter-Steuerung. Da musste ich nur 3 Iterationen ungefähr machen. Und dann musste ich zwei Iterationen durchziehen. Hat dann wie gesagt am Ende nur ein paar Cent gekostet. Bei den ersten beiden Versuchen hatte das Skript allerdings die PNGs mit den Covern nicht eingebaut. Und da musste ich zweimal nachfragen: "Mach mal bitte die PNGs da rein." Hat geklappt und ich find's ganz beeindruckend.

Generell scheint mir Vibe-Coding sowieso ein riesen Potenzial zu haben. Aber es kamen wirklich bei jedem meiner Versuche immer zu seltsamen Fehlern. Und ich würde mich im Moment nicht trauen, Vibe-gecodete Sachen wirklich für irgendwelche echten Projekte zu veröffentlichen. Einfach weil da gefährliche Sicherheitslücken drin sein können. Weil da irgendwie komischer Quatsch im Code drinstehen kann. Und am Ende kann das dann wirklich viel kaputt machen, was die gesparte Zeit nicht wert ist. Wenn ihr JavaScript könnt, guckt euch gerne den Code der beiden erwähnten Sachen hier an. Die Links auf die Projekte: c't 3003-Demoscene-Intro und c't-Cover-Museum. Ihr werdet da sicherlich viel komische Sachen drin finden. Schreibt die gerne in die Kommentare, was euch auffällt. Das interessiert mich. Wenn euch generell das Thema Vibe-Coding interessiert, machen wir gerne nochmal ein ganzes Video dazu.

Ich nutze KI wirklich in meinem Leben. Ich nutze KI eigentlich jeden Tag. Und ich habe auch den Eindruck, dass es immer mehr wird. Weil bei jeder Iteration der KI-Software die Qualität der Systeme besser wird. Ob jetzt wirklich aber AGI greifbar ist. AGI, Artificial General Intelligence. Systeme also, die mindestens genauso intelligent sind wie Menschen. Und das gleiche können wie Menschen. Ob das wirklich in naher Zukunft passieren wird, das vermag ich einfach nicht zu beurteilen. Aber das ist auf jeden Fall etwas, was ja logischerweise extreme Auswirkungen auf die Welt haben wird. Weil dann natürlich extrem viele Jobs mit KI-Systemen ersetzt werden. Und KI-Systeme natürlich auch beginnen, sich selbst weiterzuentwickeln. Aber auch ohne AGI wird das alles sehr schnell immer praxistauglicher. Was ich aber halt nicht beurteilen kann: Wo ist das Plateau? Also wann haben wir den Punkt erreicht, wo die Systeme nicht mehr oder nur noch ganz wenig besser werden?

Beim Vibe-Coding ist das natürlich sehr relevant. Da sagen ja jetzt schon die ganzen Hype-Leute: "Oooh, alle Menschen, die coden, werden nächste Woche arbeitslos." "Das wird Vibe-Coding sein." Aber nein, das ist definitiv noch nicht so. Weil das hat noch zu viele grobe Probleme. Werden die bald alle ausgemerzt sein? Oder wird das womöglich mit aktueller Technik gar nicht möglich sein? Ich kann es nicht beurteilen. Bin mir aber schon recht sicher, wenn ich mir die Verbesserungen der letzten Monate anschaue, dass da noch ganz schön was zu holen ist. Und ich auch das, was ich jetzt schon als totaler Coding-Noob zustande bekommen habe, durchaus nicht nichts ist. Aber wie gesagt, für professionelle Zwecke, hmmm, würde ich nichts Vibe-gecodetes veröffentlichen. Zumindest nicht, ohne dass da noch mal jemand Kompetentes drüber geguckt hat.

So, ich hoffe, ihr versteht jetzt etwas mehr, warum wir hier so viele KI-Videos machen und warum das Thema für mich so ein Weltveränderungspotenzial hat. Also wenn nicht, auch gerne in die Kommentare schreiben und abonnieren natürlich. Und ich verspreche euch, dass wir auch in Zukunft viele Nicht-KI-Videos machen werden. Tschüss!


c't 3003 ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.

(jkj)