Das Prompt-Engineering meistern: ausprobieren, experimentieren, lernen und üben
Wie schreibe ich einen guten Prompt? Learning Specialist Matthias Seiller hat dazu ein paar Antworten parat. Experimentierfreude scheint nötig zu sein.
Gute Prompts bestimmen darüber, ob eine KI Antworten möglichst passgenau formulieren kann – die verschiedenen Sprachmodelle haben aber alle ihre Eigenheiten, die sich Nutzerinnen und Nutzer auch bewusst machen müssen. Matthias Seiller, Learning Specialist und Referent Weiterbildung bei Datev, hat heise online deshalb erklärt, was für gute Prompts aus seiner Sicht beachtet werden muss und wie Menschen alleine oder in der Gruppe das Prompt-Engineering erlernen können:
Was ist so wichtig am Prompt-Engineering im Zusammenhang mit KI und Lernen?
Prompt Engineering ist für einen effektiven Einsatz von KI-Tools der entscheidende Faktor. Der Prompt bildet die Schnittstelle zwischen den Nutzer:innen und dem Large Language Model der KI, beispielsweise bei ChatGPT. Es ist eben nicht der Austausch zwischen Menschen, der hier stattfindet, sondern eine Anweisung an eine Maschine, die diese in eine mathematische Darstellung übersetzt. Auf dieser Basis fügt das KI-Tool dann wiederum ganz individuell Silben und Worte zu einer plausiblen Antwort zusammen.
Wenn man sich dieses mechanistische Modell vor Augen führt, dann kann man daran schon ein paar Dinge ableiten: So hängt die Qualität der Antwort direkt von der Menge und Qualität des Inputs im Prompt ab. Es macht einen großen Unterschied, ob ich das System einfach frage: "Was macht Datev?", oder ob ich ihm eine umfassendere Anweisung gebe, die beispielsweise so aussehen könnte: "Erkläre mir als Steuerberater, was Datev macht und was das Besondere an der Unternehmensstruktur einer Genossenschaft ist. Liste mir in Form einer Tabelle die wichtigsten Produkte des Unternehmens auf und in welchen Bereichen mich die Produkte in meiner täglichen Arbeit unterstützen können." Diese Anweisung enthält eine Rollenzuweisung, die Form des Outputs und einige konkrete Hinweise darüber, was ich über das Unternehmen wissen will.
Je präziser und spezifischer das Prompt formuliert ist, desto genauer und relevanter ist die Antwort des Modells. Eine gut formulierte Eingabeaufforderung erleichtert es dem Modell, den Kontext zu verstehen und die gewünschten Informationen bereitzustellen.
Wie kann man sich diese Promptkompetenz aneignen?
Da würde ich verschiedene Ansätze empfehlen, und zwar am besten mehrere parallel. Was vermutlich schon die meisten gemacht haben, ist das einfache, praktische Ausprobieren und Experimentieren mit KI-Tools. Das ist super, um wertvolle Erfahrungen zu sammeln. Je mehr Tools und Anwendungsszenarien man dabei ausprobiert, desto besser, um ein umfassendes Verständnis für die effektive Nutzung von Prompts zu entwickeln.
Darüber hinaus empfiehlt sich aber auch der Blick nach links und rechts. Es gibt bestimmt im näheren Umfeld Menschen, die bereits Expertise aufgebaut haben und ihr Wissen gerne teilen. Und in den Medien, Social-Media-Kanälen und Seminarprogrammen finden sich auch viele Expert:innen, die wertvolle Einblicke und Tipps geben.
Was ich persönlich auch sehr spannend finde, ist die KI-Tools selbst als Feedbackinstrument zu nutzen. Es ist beeindruckend, wie gut beispielsweise ChatGPT Prompts optimieren kann, sowohl für sich selbst als auch für andere KI-Tools, beispielsweise für Bildgenerierung. Letztlich ist die Kombination aus Ausprobieren, Experimentieren, Lernen und Üben der Schlüssel zur Entwicklung der Promptkompetenz. Indem man die Erfahrungen aus dem praktischen Einsatz, das Wissen von Expert:innen und die Rückmeldungen den Tools selbst kombiniert, verbessert man schrittweise die eigene Fähigkeit zur präzisen Formulierung von Prompts.
Wie kann man sich selbst trainieren, gute Prompts zu schreiben?
Was sich auch auf jeden Fall immer lohnt: Es gibt im Internet jede Menge Cheat Sheets für einen ersten Überblick. Zudem empfehle ich, sich im näheren Umfeld zu vernetzen, Erfahrungen zu teilen und gemeinsam zu lernen. Ich kenne viele Kolleg:innen, die sich in kleinen Kreisen mehr oder weniger regelmäßig treffen, um sich auszutauschen, gegenseitig zu helfen und gemeinsam Lösungen zu erarbeiten. In diesem Zusammenhang fand ich die Idee ganz spannend: Das Konzept des Coding Dojos auf Prompting zu übertragen. Also in einer kleinen Gruppe wird kontinuierlich ein Prompt zu einem Thema optimiert, dabei rotieren die Teilnehmenden nacheinander von einer beobachtenden in eine aktive Rolle und wieder zurück. Das ist hilfreich, weil man gemeinsam in kurzer Zeit sehr intensiv und mit vielfältigen Ansätzen experimentiert und so eine hohe Lernkurve erzielen kann.
Unterscheiden sich Künstliche Intelligenzen in Sachen Prompts?
Ja, sehr sogar! Die Unterschiede hängen davon ab, auf welche Art von Daten und Inhalten die KIs trainiert wurden. Daher ist es auch so wichtig, auf verschiedenen Plattformen den Umgang mit Prompt Engineering zu entwickeln, um die richtigen Tools für die richtigen Aufgaben effektiv einsetzen zu können.
Bei ChatGPT handelt es sich um ein Tool, das auf eine möglichst "menschliche" Interaktion trainiert wurde. Es folgt also eher einer dialogischen Logik und ermöglicht eine kontextbezogene Interaktion. Einen ganz anderen Ansatz verfolgt beispielsweise Wolfram Alpha. Hier bezieht sich das Prompting auf die Eingabe spezifischer Abfragen oder Befehle, um eine möglichst präzise Antwort zu berechnen. Daher ist die Eingabe in der Regel sehr viel formelhafter als bei ChatGPT.
Ähnliche Unterschiede finden sich auch bei anderen Tools. Im Bereich der Bildgenerierung arbeitet zum Beispiel das KI-Tool MidJourney auf Basis von Stichwörtern. Es wurde speziell entwickelt, um visuelle Beschreibungen anhand von kurzen Texteingaben zu generieren. DALL·E 2 hingegen ist ein KI-Modell, das darauf trainiert wurde, Bilder basierend auf textuellen Beschreibungen zu generieren, die durchaus sehr viel umfangreicher sein sollten.
Gibt es Regeln für gute Prompts?
Das ist ganz sicher der Fall – nur muss man wissen, mit welchem Tool man es gerade zu tun hat. Aktuell am meisten in der Diskussion ist natürlich ChatGPT, daher will ich mich hier darauf beschränken. Aber für andere Tools, sollten die Regeln mit unterschiedlicher Priorisierung und Intensität sicher auch funktionieren.
Grundsätzlich sollte ein guter Prompt eine klare Situationsbeschreibung enthalten, um dem Modell den Kontext zu vermitteln. Dabei kann man beispielsweise auch eine Arbeitsanweisung formulieren oder dem Modell eine spezifische Rolle zuweisen, wie die eines Lehrers oder Entwicklers. So wird sichergestellt, dass das Tool auch innerhalb der Situation und Rolle bleibt und eine für diesen Kontext plausible Antwort generieren kann.
Dann sollte der Prompt klar und präzise formuliert sein. Wer das beherrscht, kann beispielsweise auch ohne Programmierkenntnisse einen guten Software-Code produzieren.
Doch egal, wie gut der Prompt formuliert ist, am Ende bleibt die Pflicht, sich die Antwort sehr kritisch anzusehen und auf Korrektheit zu prüfen. KI-Modelle wie ChatGPT sind nicht darauf ausgelegt, "richtige" Antworten zu produzieren, sondern plausible und sinnvolle Antworten zu generieren. Daher ist es ratsam, die Antworten kritisch zu hinterfragen und gegebenenfalls weitere Quellen oder Expertenrat heranzuziehen, um die Richtigkeit der Informationen zu überprüfen.
Welche Lösungen oder Schulungen hat sich Datev dafür überlegt?
Hier muss ich zunächst auf unseren relativ frisch verabschiedeten Vorstandsbeschluss zum Thema künstliche Intelligenz eingehen. Vorausgegangen ist eine intensive Diskussion im Haus über die Fragen, ob, wie und unter welchen Bedingungen Mitarbeitende KI-Tools in ihrer täglichen Arbeit nutzen dürfen oder vielleicht sogar sollten. Denn gerade als Softwareunternehmen ist es für uns keine Frage, dass wir schnell und in der Breite Kompetenz im Umgang und im Einsatz der Technologie aufbauen müssen.
Mit dem Vorstandsbeschluss haben wir einen Rahmen geschaffen, der den Raum des Möglichen aufmacht, und gleichzeitig nochmal die Relevanz von Datenschutz, Copyright und Sicherheit verdeutlicht. Denn allen, die Prompts in die Tools eingeben, muss bewusst sein, dass auf diese Weise mitgeteilte Inhalte möglicherweise in den Lernalgorithmus der KI aufgenommen werden und als Input für künftige Antworten dienen können. Auch wenn man das beispielsweise bei ChatGPT deaktivieren kann. Dennoch bleibt noch ein weiterer wesentlicher Faktor: KIs funktionieren häufig als Black Box: Ich gebe vorne was rein und bekomme hinten was raus. Was dazwischen passiert, aus welchen Quellen sich die Antwort speist, bleibt intransparent. Daher ist uns in diesem Kontext wichtig, dass alle Mitarbeitenden die Prinzipien von KI verstehen und souverän damit umgehen können.
Dementsprechend starten unsere Informations- und (Selbst)Lernangebote zum Thema Künstliche Intelligenz mit sehr niedrigschwelligen Veranstaltungsformaten, die intern allen zugänglich sind. Hier informieren wir über die Grundlagen und öffnen Dialogräume, um Fragen aus der Belegschaft zu besprechen. Dieses LearningCoffee-Format wird regelmäßig zu verschiedenen Themen angeboten, aber gerade bei KI-nahen Themen verzeichnen wir ein sehr großes Interesse. Ähnlich erleben wir es auch bei unseren Freizeitlernangeboten, die ebenfalls sehr gut nachgefragt sind.
(kbe)