Wie schreibe ich zielführende Anweisungen (Prompts) für ein Interface eines Large Language Models (LLM) wie ChatGPT?
Ein Prompt ist eine Aufforderung, die an das Large Language Modell (LLM) gerichtet ist, um eine spezifische Antwort oder eine Konversation zu generieren. Der Prompt gibt dem Modell einen Kontext oder eine Anweisung, wie es antworten soll.
Prompts sollten klar und präzise formuliert sein, um die gewünschte Art von Antwort zu erhalten. Sie können Fragen, Anweisungen oder Beschreibungen enthalten, um das Modell zu lenken und den Kontext der Konversation festzulegen. Es ist wichtig, den Prompt so zu gestalten, dass er das Modell in die gewünschte Richtung lenkt, da das Modell stark von den Informationen im Prompt abhängt, um die nächsten Sätze zu generieren, (vgl. untenstehender Abschnitt: Quellenangaben).
Prompt Engineering bezieht sich auf den Prozess der Gestaltung und Optimierung von Prompts, um qualitativ hochwertige und spezifische Antworten von LLM, wie ChatGPT zu erhalten. Es geht darum, den Prompt so zu formulieren, dass er das gewünschte Verhalten des Modells fördert und eine präzise und relevante Antwort erzeugt, (vgl. untenstehender Abschnitt: Quellenangaben)
Elvis Saravia, Autor des Prompt Engineering Guide definiert: „Prompt Engineering ist die Entwicklung und Optimierung von Prompts, um Sprachmodelle für eine Vielzahl von Anwendungen effizient zu nutzen.“
Die Formulierung eines präzisen Prompts und die Feinabstimmung des Modells durch Prompt Engineering kann einen erheblichen Einfluss auf die Qualität der Antworten von Interfaces der LLM, wie ChatGPT haben und sicherstellen, dass die gewünschten Ergebnisse erzielt werden.
Beim Prompt Engineering gibt es verschiedene Ansätze, die verwendet werden können:
1. Instruktionen und Formatierung: Klare und präzise Anweisungen können dem Modell helfen, den Kontext und die Erwartungen besser zu verstehen. Außerdem kann die richtige Formatierung des Prompts (z. B. Verwendung spezieller Tokens oder Platzierung von Schlüsselwörtern) dem Modell dabei helfen, die gewünschte Art von Antwort zu generieren.
Zero-Shot-Prompting bezeichnet die präzise Formulierung und Strukturierung von Prompts, somit das genaue Durchdenken, Schritt für Schritt, des zu generierenden Outputs durch den ‚KI‘-gestützten Chatbot.
2. Vorwissen einbringen: Indem man dem Modell relevante Hintergrundinformationen im Prompt liefert, kann man sicherstellen, dass es über das benötigte Wissen verfügt, um die Frage oder den Kontext zu verstehen. Das Modell kann von seinem internen Wissen profitieren, aber der Prompt kann spezifische Informationen bereitstellen, um bestimmte Antworten zu erhalten.
Das Hinzufügen von Erläuterungen, auch bei weiterführenden Beispielen wird Chain-of-Thought-Prompting genannt.
3. Einschränkungen und Beispiele: Durch das Hinzufügen von Einschränkungen oder Beispielen im Prompt kann man das Modell darauf hinweisen, bestimmte Arten von Antworten zu erzeugen oder bestimmte Verhaltensweisen zu vermeiden.
Das Hinzufügen von Beispielen wird Few-Shot-Prompting genannt.
4. Iteratives Verbessern: Prompt Engineering ist oft ein iterativer Prozess, bei dem man verschiedene Prompts ausprobiert und die generierten Antworten bewertet. Durch die Analyse der erzeugten Antworten kann man den Prompt anpassen und optimieren, um bessere Ergebnisse zu erzielen, (vgl. untenstehender Abschnitt: Quellenangaben).
Tom Barrett fügt in seinem Artikel „How might AI diminish student agency?“ (März 2023) die Formel: CREATE ein, um zielführende Promtps für LLM zu schreiben. Dabei steht
C – Clarity (Klarheit)
R – Relevance (Relevanz)
E – Examples (Beispiele)
A – Avoid Ambiguity (Mehrdeutigkeit vermeiden)
T – Tinker (das Ergebnis weiter bearbeiten, Tüfteln)
E – Evaluate (Ergebnis immer evaluieren)
Zusammenfassend lässt sich festhalten, dass wie beim Programmieren, so auch bei dem Formulieren für Anweisungen für LLM, GIGO (garbage in, garbage out) gilt. Ist die Formulierung des Prompts nicht präzise, wird der Output des ‚KI‘-gestützten Chatbots ebenso unpräzise sein.
Zur Veranschulichung findet ihr hier Beipsiele unterschiedlich formulierter Prompts, die eine unterschiedliche Qualität von Output – in diesem Fall von ChatGPT – generiert haben.
Eine knappe ‚KI‘-generierte Antwort folgt auf:
Prompt 1: „Write a book report about Animal Farm.“
Auf Prompt 2: „Write a book report about Animal Farm, based on this introductory paragraph. Here is my introductory paragraph: […]“ folgt eine zufriedenstellend generierte Antwort des ‚KI‘-basierten Chatbots, während
Prompt 3: „Write a five-paragraph book report at a college level with elegant prose that draws on the history of the satirical allegorical novel Animal Farm. Reference Orwell’s ‘Why I Write’ while explaining the author’s stylistic choices in the novel“ ein differenziertes Essay generieren lässt.
Die obenstehenden Beispiel-Prompts stammen von Charlie Warzel.
Eine Sammlung zielführender Prompts für den Unterricht für Schüler:innen und Lehrer:innen findet ihr hier:
– Manuel Flick, Der ChatGPT-Guide für Lehrkräfte 2.0 (e-book), Mai 2023.
– Regina Schulz, DigitalSnack: Unterlagen zur Fortbildung Prompt Crafting im Sprachenunterricht (taskcards + Präsentation) März 2023.
Beide beinhalten Promtps für Routineaufgaben von Lehrer:innen (Korrekturen, Stundenplanung, Aufgabenerstellungen, … unterstützen) und Ko-kreative Aufgaben für Schüler:innen (Schreibprozess unterstützen, Texte umschreiben, …)
Durch einen sogeannten ‚Mega-Prompt‘ kann ‚KI‘-gestützen Chatbots eine Rolle zugewiesen werden. z.B die eines Dialogpartners oder eines Lerncoaches. Ein ‚Mega-Prompt‘ beinhaltet folgende Aspekte:
– Wer oder was wird simuliert?
– Aufgabe / Tätigkeit – was ist zu tun?
– Arbeitsschritte – was ist in welcher Reihenfolge zu tun?
– Kontext / Nebenbedingungen /
– Einschränkungen / … – was muss dabei beachtet werden?
– Ziel – was soll der Bot-Dialog erreichen?
– Format des Outputs – wie soll die Rückmeldung des Bots aussehen?
Obenstehende Informationen stammen von Hauke Pölert aus seinem Beitrag „Lernbegleitung mit ChatGPT Mega-Prompts? Erste Überlegungen zu KI als Writing-Tutor„, Januar 2023, basierend auf dem Konzept „Mega-Prompt“ von Rob Lennon, Januar 2023.
Schüler:innen können mithilfe von ‚Mega-Prompts‘ mit Romanfiguren chatten, oder grammatische Phänomene im Dialog mit dem ‚KI‘-gestützen Chatbot üben:
Beispielhafter ‚Mega-Prompt‘ für das Chatten mit einer Romanfigur:
„I want you to act like Lady Macbeth from Shakespeare’s Macbeth.
I want you to respond and answer like Lady Macbeth using the tone, manner and vocabulary Lady Macbeth would use.
Do not write any explanations. Only answer like Lady Macbeth.
You must know all of the knowledge of Lady Macbeth.
My first sentence is ‚Hello Lady Macbeth.’“
Bespielhafter ‚Mega-Prompt‘, um ‚KI‘-gestützten Chatbots die Rolle eines Sprach-Lern-Coaches zuzuschreiben, in diesem Fall im Fach Englisch,
“Du bist mein Englischlehrer: Dein Job ist es, mir Englisch beizubringen, unter den folgenden Voraussetzungen:
1. Du stellst mir standardmäßig Fragen auf englisch, die ich auf englisch beantworten muss. Fahre fort mir Fragen zu stellen. Wenn ich „weiter“ auf deutsch oder englisch schreibe, fahre fort, mir Fragen zu stellen.
2. Wenn Du einen Fehler bemerkst, musst Du mich sofort berichtigen. Wenn Du mich korrigierst, sage bitte: „KORREKTUR: [korrigierte Version dessen, was ich auf englisch geschrieben habe]“. Dann füge hinzu: „ERKLÄRUNG: [Erklärung, warum meine Angabe falsch war.]”
3. Wenn ich einen bestimmten Satz oder ein Wort auf englisch nicht weiß, werde ich stattdessen geschweifte Klammern, um den Ausdruck auf deutsch verwenden. Wenn dies geschieht, hilf mir, indem Du den Inhalt der geschweiften Klammer ins Englische übersetzt, indem Du schreibst: „ÜBERSETZUNG [mein Ausdruck auf deutsch] => [Übersetzung des Ausdruckes auf englisch]. Dann stelle mir weitere Fragen.
4. Je weiter die Fragen voranschreiten, desto komplizierter und komplexer werden sie. Die Themen Deiner Fragen sollen abwechslungsreich und interessant sein und sie sollen Bereiche aus Gesellschaft. Sport, Philosophie, Politik, Wissenschaft und Kunst abdecken.
5. Orientiere Dich zu Beginn an dem Sprachniveau A2 und steigere das Niveau nur langsam.
Starte, indem Du Deine erste Frage stellst.“
Der obenstehende ‚Mega-Prompt‘ ist von Jake Brukhman und wurde ins Deutsche übersetzt.
Selbstverständlich ist es LLM inhärent, dass die Outputs variieren, auch wenn dieselben Prompts eingegeben werden, d.h. der Output ist bei jeder Anfrage anders.
Dennoch können geteilte (‚Mega-)Prompts‘ hilfreich sein, um sie für eigene Gegebenheiten anzupassen. Zielführende (‚Mega-)Prompts‘ werden auf Plattformen wie https://flowgpt.com/ oder reddit geteilt.
Inzwischen gibt es auch Online-Marktplätze, wo (‚Mega-)Prompts‘ geldlich erworben werden können.
Im Zentrum des obenstehenden Artikels steht die produktive Nutzung von Prompt Engineering für LLM. Nichtsdestotrotz soll der Vollständigkeit halber nicht unerwähnt bleiben, dass Prompt Engineering auch für manipulative Outputs von LLM genutzt werden kann. So kann durch manipulatives Prompt Engineering Output generiert werden, der ggf. sensible Daten enthält und deshalb ggf. durch einen Filter geschützt ist. Diese Konzepte werden ‚Prompt Injection‘, ‚Prompt Leaking‘ und ‚Jailbreaking‘ genannt. Besonders das ‚Jailbreaking‘ kann ggf. mit einem hohen Sicherheitsrisiko verbunden sein.
Bei der Herstellung von Teilen des obenstehenden Textes (Teile der Absätze 1-3) wurde ChatGPT eingestetzt. Mit folgenden Prompts hat die Autorin die ‚KI‘ gesteuert: „Was ist ein Prompt?“ „Welche Ansätze von Prompts gibt es?“ Die von ChatGPT generierten Textteile wurden von der Autorin editiert.
(Diese Zitierweise ist dem „Handlungsleitfaden zum Umgang mit textgenerierenden KI-Systemen“ des Landes NRW, S.7 entnommen.)
Weitere Informationen und Übungen zum Thema ‚Prompt Engineering‘ finden sich hier:
– Barrett, Tom: „How might AI diminish student agency?„
– Flick, Manuel, Der ChatGPT-Guide für Lehrkräfte 2.0
– Pölert, Hauke: „Lernbegleitung mit ChatGPT Mega-Prompts? Erste Überlegungen zu KI als Writing-Tutor„
– Saravia, Elvis: Prompt Engineering Guide
– Schulz, Regina: DigitalSnack: Unterlagen zur Fortbildung Prompt Crafting im Sprachenunterricht
Bild: Craiyon, Prompt: „artificial intelligence in school“