Fortgeschrittene Prompting-Techniken

Strategien für effektivere Kommunikation mit LLMs

Fortgeschrittene Prompting-Techniken

Nachdem Sie die Grundlagen des Promptings kennengelernt haben, ist es an der Zeit, fortgeschrittenere Techniken zu erkunden, die Ihnen helfen können, noch bessere Ergebnisse von Large Language Models zu erhalten. Diese Methoden wurden durch Forschung und praktische Erfahrung entwickelt und können die Qualität, Genauigkeit und Nützlichkeit der Modellantworten erheblich verbessern.

In diesem Abschnitt werden wir verschiedene fortgeschrittene Prompting-Techniken untersuchen, darunter Zero-Shot und Few-Shot Prompting, Chain-of-Thought Prompting, Instruction Prompting und die Verwendung von System Prompts. Jede dieser Techniken hat ihre eigenen Stärken und eignet sich für bestimmte Arten von Aufgaben oder Anforderungen.

Durch das Verständnis und die Anwendung dieser Techniken können Sie die Fähigkeiten von LLMs besser nutzen und sie effektiver für Ihre spezifischen Bedürfnisse einsetzen.

Zero-Shot Prompting

Was ist Zero-Shot Prompting?

Zero-Shot Prompting ist eine Technik, bei der Sie ein LLM bitten, eine Aufgabe auszuführen oder eine Frage zu beantworten, ohne ihm vorher Beispiele für diese spezifische Aufgabe zu geben. Der Name "Zero-Shot" bezieht sich darauf, dass das Modell keine expliziten Beispiele (oder "Shots") für die aktuelle Aufgabe erhält.

Diese Technik nutzt die während des Trainings erworbene Fähigkeit des Modells, Muster zu erkennen und Wissen zu generalisieren. Moderne LLMs wurden auf einer enormen Menge an Text trainiert und haben dadurch ein breites "Verständnis" verschiedener Aufgaben und Konzepte entwickelt, selbst wenn sie nicht explizit für diese spezifischen Aufgaben trainiert wurden.

Wann Zero-Shot Prompting verwenden?

Zero-Shot Prompting ist oft der erste Ansatz, den Sie versuchen sollten, da er einfach und direkt ist. Es funktioniert besonders gut für:

- Einfache, klar definierte Aufgaben
- Allgemeine Wissensfragen
- Aufgaben, die in den Trainingsdaten häufig vorkommen
- Situationen, in denen Sie schnell eine Antwort benötigen, ohne viel Zeit für die Prompt-Erstellung aufzuwenden

Beispiele für Zero-Shot Prompting

Beispiel: Textklassifikation
"Klassifiziere den folgenden Text als 'positiv', 'neutral' oder 'negativ':

'Der neue Film war interessant, aber nicht so gut wie der Vorgänger. Die Schauspieler haben ihr Bestes gegeben, aber das Drehbuch hatte einige Schwächen.'"
"Klassifikation: neutral"

In diesem Beispiel wird das Modell gebeten, eine Stimmungsanalyse durchzuführen, ohne dass Beispiele für positive, neutrale oder negative Texte gegeben werden. Das Modell kann diese Aufgabe aufgrund seines Trainings verstehen und ausführen.

Beispiel: Zusammenfassung
"Fasse den folgenden Absatz in einem Satz zusammen:

'Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, insbesondere im Bereich des maschinellen Lernens und der neuronalen Netzwerke. Diese Fortschritte haben zu Durchbrüchen in verschiedenen Bereichen geführt, darunter Bildverarbeitung, natürliche Sprachverarbeitung und autonome Systeme. Trotz dieser Erfolge gibt es weiterhin Herausforderungen in Bezug auf Ethik, Transparenz und die Vermeidung von Bias in KI-Systemen.'"
"Künstliche Intelligenz hat durch Fortschritte im maschinellen Lernen und neuronalen Netzwerken verschiedene Bereiche revolutioniert, steht jedoch weiterhin vor Herausforderungen bezüglich Ethik, Transparenz und Bias."

Hier wird das Modell gebeten, eine Zusammenfassung zu erstellen, ohne dass Beispiele für gute Zusammenfassungen gegeben werden. Das Modell versteht die Aufgabe und kann sie basierend auf seinem Training ausführen.

Tipps für effektives Zero-Shot Prompting

Obwohl Zero-Shot Prompting einfach erscheint, gibt es einige Strategien, die seine Effektivität verbessern können:

1. Seien Sie präzise in Ihrer Aufgabenbeschreibung: Je klarer Sie die Aufgabe definieren, desto besser kann das Modell verstehen, was von ihm erwartet wird.

2. Geben Sie Kontext: Auch ohne Beispiele kann zusätzlicher Kontext dem Modell helfen, die Aufgabe besser zu verstehen.

3. Spezifizieren Sie das gewünschte Format: Geben Sie an, wie die Antwort strukturiert sein soll, um konsistente Ergebnisse zu erhalten.

4. Verwenden Sie klare Anweisungen: Beginnen Sie mit einem Aktionsverb, das genau beschreibt, was das Modell tun soll (z.B. "Klassifiziere", "Fasse zusammen", "Übersetze").

Few-Shot Prompting

Was ist Few-Shot Prompting?

Few-Shot Prompting ist eine Technik, bei der Sie dem Modell einige Beispiele (oder "Shots") für die Aufgabe geben, bevor Sie es bitten, eine ähnliche Aufgabe auszuführen. Diese Beispiele dienen als Demonstration des gewünschten Formats, Stils oder der Denkweise und helfen dem Modell, besser zu verstehen, was von ihm erwartet wird.

Im Gegensatz zum Zero-Shot Ansatz, bei dem das Modell ohne spezifische Beispiele arbeiten muss, gibt Few-Shot Prompting dem Modell einen klareren Rahmen für die Aufgabe. Dies kann besonders nützlich sein für komplexere oder spezifischere Aufgaben, bei denen das Modell möglicherweise Schwierigkeiten hat, die genauen Erwartungen zu verstehen.

Wann Few-Shot Prompting verwenden?

Few-Shot Prompting ist besonders nützlich für:

- Komplexe oder ungewöhnliche Aufgaben
- Aufgaben, die ein spezifisches Format oder einen bestimmten Stil erfordern
- Situationen, in denen Zero-Shot Prompting nicht die gewünschten Ergebnisse liefert
- Wenn Sie konsistente Ergebnisse über mehrere ähnliche Anfragen hinweg benötigen

Beispiele für Few-Shot Prompting

Beispiel: Textklassifikation mit Few-Shot
"Klassifiziere den Kundenservice-Kommentar als 'Lob', 'Beschwerde' oder 'Anfrage'.

Beispiel 1:
Kommentar: 'Ich möchte wissen, ob Sie auch vegetarische Optionen anbieten.'
Klassifikation: Anfrage

Beispiel 2:
Kommentar: 'Der Mitarbeiter war sehr unfreundlich und hat meine Fragen nicht beantwortet.'
Klassifikation: Beschwerde

Beispiel 3:
Kommentar: 'Vielen Dank für den ausgezeichneten Service! Ich werde definitiv wiederkommen.'
Klassifikation: Lob

Jetzt klassifiziere diesen Kommentar:
'Die Lieferung kam pünktlich an, aber das Produkt war beschädigt.'"
"Klassifikation: Beschwerde"

In diesem Beispiel werden dem Modell drei Beispiele gegeben, die zeigen, wie verschiedene Arten von Kundenkommentaren klassifiziert werden sollen. Dies hilft dem Modell, das Muster zu verstehen und auf den neuen Kommentar anzuwenden.

Beispiel: Formatierung von Daten
"Konvertiere die unformatierten Personendaten in ein strukturiertes JSON-Format.

Beispiel 1:
Eingabe: 'Max Mustermann, geboren am 15.04.1985, wohnhaft in Berlin, Beruf: Ingenieur'
Ausgabe: {
\"name\": \"Max Mustermann\",
\"geburtsdatum\": \"15.04.1985\",
\"wohnort\": \"Berlin\",
\"beruf\": \"Ingenieur\"
}

Beispiel 2:
Eingabe: 'Anna Schmidt, geboren am 23.09.1990, wohnhaft in München, Beruf: Ärztin'
Ausgabe: {
\"name\": \"Anna Schmidt\",
\"geburtsdatum\": \"23.09.1990\",
\"wohnort\": \"München\",
\"beruf\": \"Ärztin\"
}

Jetzt konvertiere diese Daten:
'Thomas Weber, geboren am 07.12.1978, wohnhaft in Hamburg, Beruf: Lehrer'"
"{
\"name\": \"Thomas Weber\",
\"geburtsdatum\": \"07.12.1978\",
\"wohnort\": \"Hamburg\",
\"beruf\": \"Lehrer\"
}"

Hier werden dem Modell zwei Beispiele gegeben, die zeigen, wie unformatierte Personendaten in ein strukturiertes JSON-Format konvertiert werden sollen. Dies hilft dem Modell, das gewünschte Ausgabeformat genau zu verstehen.

Tipps für effektives Few-Shot Prompting

1. Wählen Sie repräsentative Beispiele: Die Beispiele sollten die Vielfalt der möglichen Eingaben und die entsprechenden erwarteten Ausgaben abdecken.

2. Verwenden Sie ein konsistentes Format: Stellen Sie sicher, dass alle Beispiele dem gleichen Format folgen, um Verwirrung zu vermeiden.

3. Beginnen Sie mit einfachen Beispielen: Wenn möglich, ordnen Sie die Beispiele vom Einfachen zum Komplexen an.

4. Beschränken Sie die Anzahl der Beispiele: 2-5 Beispiele sind oft ausreichend. Zu viele Beispiele können den Kontext überladen und die Leistung beeinträchtigen.

5. Wählen Sie diverse Beispiele: Wenn die Aufgabe verschiedene Kategorien oder Typen umfasst, stellen Sie sicher, dass jede Kategorie durch mindestens ein Beispiel repräsentiert wird.

Chain-of-Thought Prompting

Was ist Chain-of-Thought Prompting?

Chain-of-Thought (CoT) Prompting ist eine fortgeschrittene Technik, die darauf abzielt, das Modell zu ermutigen, schrittweise zu denken und seinen Gedankenprozess explizit darzulegen, bevor es zu einer endgültigen Antwort kommt. Anstatt direkt nach einer Antwort zu fragen, fordert diese Methode das Modell auf, seinen Denkprozess zu zeigen – ähnlich wie ein Mensch, der ein Problem laut durchdenkt.

Diese Technik wurde in der Forschung als besonders effektiv für komplexe Aufgaben wie mathematisches Problemlösen, logisches Schlussfolgern und mehrstufige Entscheidungsfindung nachgewiesen. Durch die Anleitung des Modells, in Zwischenschritten zu denken, können oft genauere und nachvollziehbarere Ergebnisse erzielt werden.

Wann Chain-of-Thought Prompting verwenden?

Chain-of-Thought Prompting ist besonders nützlich für:

- Mathematische Probleme und Berechnungen
- Logische Rätsel und Schlussfolgerungen
- Mehrstufige Entscheidungsprozesse
- Komplexe Analysen, die mehrere Überlegungen erfordern
- Situationen, in denen die Nachvollziehbarkeit der Antwort wichtig ist

Beispiele für Chain-of-Thought Prompting

Beispiel: Mathematisches Problem
"Löse das folgende mathematische Problem Schritt für Schritt:

Ein Bäcker hat 36 Kekse gebacken. Er verkauft 3/4 davon und verschenkt 1/3 der übrigen Kekse an seine Nachbarn. Wie viele Kekse behält er für sich?"
"Ich löse dieses Problem Schritt für Schritt:

1. Der Bäcker hat insgesamt 36 Kekse gebacken.

2. Er verkauft 3/4 davon:
3/4 × 36 = 27 Kekse werden verkauft.

3. Die übrigen Kekse berechne ich:
36 - 27 = 9 Kekse bleiben übrig.

4. Von diesen übrigen 9 Keksen verschenkt er 1/3 an seine Nachbarn:
1/3 × 9 = 3 Kekse werden verschenkt.

5. Die Anzahl der Kekse, die er für sich behält, ist:
9 - 3 = 6 Kekse.

Der Bäcker behält also 6 Kekse für sich."

In diesem Beispiel wird das Modell aufgefordert, seinen Denkprozess Schritt für Schritt darzulegen, was zu einer klaren, nachvollziehbaren Lösung führt.

Beispiel: Logisches Schlussfolgern
"Analysiere das folgende Szenario Schritt für Schritt und beantworte die Frage:

Anna, Bernd, Clara, David und Emma sitzen in einer Reihe auf fünf Stühlen. Wir wissen Folgendes:
- Anna sitzt nicht neben Bernd.
- Clara sitzt am äußersten rechten Ende.
- David sitzt neben Emma.
- Bernd sitzt genau in der Mitte.
Wer sitzt ganz links?"
"Ich analysiere dieses Szenario Schritt für Schritt:

1. Wir haben 5 Personen (Anna, Bernd, Clara, David und Emma) auf 5 Stühlen in einer Reihe.

2. Clara sitzt am äußersten rechten Ende. Das bedeutet, Clara ist auf Position 5 (von links nach rechts).

3. Bernd sitzt genau in der Mitte. Bei 5 Stühlen ist die Mitte Position 3. Also sitzt Bernd auf Position 3.

4. David sitzt neben Emma. Das bedeutet, sie müssen auf benachbarten Positionen sitzen.

5. Anna sitzt nicht neben Bernd. Das bedeutet, Anna kann nicht auf Position 2 oder 4 sitzen.

6. Wir wissen bereits, dass Clara auf Position 5 und Bernd auf Position 3 sitzt.

7. Da Anna nicht neben Bernd sitzen kann, muss Anna auf Position 1 sitzen (da Position 2 neben Bernd wäre und Position 4 und 5 für andere reserviert sind).

8. Da David und Emma nebeneinander sitzen müssen, müssen sie auf den Positionen 2 und 4 sitzen.

9. Die vollständige Anordnung ist also: Anna (1), entweder David oder Emma (2), Bernd (3), entweder Emma oder David (4), Clara (5).

Die Person ganz links ist also Anna."

Hier wird das Modell angeleitet, ein logisches Rätsel schrittweise zu lösen, indem es die gegebenen Informationen analysiert und Schlussfolgerungen zieht.

Tipps für effektives Chain-of-Thought Prompting

1. Fordern Sie explizit Zwischenschritte an: Verwenden Sie Anweisungen wie "Denke Schritt für Schritt" oder "Erkläre deinen Gedankengang".

2. Kombinieren Sie mit Few-Shot Prompting: Geben Sie Beispiele, die zeigen, wie ein Gedankengang aussehen sollte. Dies wird oft als "Few-Shot Chain-of-Thought" bezeichnet und kann besonders effektiv sein.

3. Ermutigen Sie zur Selbstkorrektur: Bitten Sie das Modell, seine eigenen Schlussfolgerungen zu überprüfen und zu korrigieren, wenn nötig.

4. Strukturieren Sie komplexe Probleme: Teilen Sie komplexe Probleme in klar definierte Teilprobleme auf, die das Modell nacheinander lösen kann.

5. Verwenden Sie diese Technik für die richtigen Aufgaben: Chain-of-Thought ist besonders nützlich für komplexe Probleme, kann aber für einfache Aufgaben unnötig sein und zu übermäßig ausführlichen Antworten führen.

Instruction Prompting

Was ist Instruction Prompting?

Instruction Prompting ist eine Technik, bei der Sie dem Modell klare, direkte Anweisungen geben, wie es eine bestimmte Aufgabe ausführen soll. Diese Methode nutzt die Fähigkeit moderner LLMs, natürlichsprachliche Anweisungen zu verstehen und zu befolgen, die während ihres Trainings und ihrer Feinabstimmung entwickelt wurde.

Im Gegensatz zu einigen anderen Prompting-Techniken, die sich auf Beispiele oder Gedankengänge konzentrieren, liegt der Schwerpunkt beim Instruction Prompting auf präzisen, handlungsorientierten Anweisungen. Diese können einfach oder komplex sein und oft mehrere Teilanweisungen oder Spezifikationen enthalten.

Wann Instruction Prompting verwenden?

Instruction Prompting ist vielseitig einsetzbar und eignet sich besonders für:

- Klar definierte Aufgaben mit spezifischen Anforderungen
- Situationen, in denen Sie das Format, den Stil oder den Ton der Antwort genau steuern möchten
- Komplexe Anfragen mit mehreren Teilaufgaben oder Bedingungen
- Wenn Sie mit Modellen arbeiten, die speziell auf das Befolgen von Anweisungen trainiert wurden (wie ChatGPT oder Claude)

Beispiele für Instruction Prompting

Beispiel: Detaillierte Anweisungen für einen Blogbeitrag
"Schreibe einen Blogbeitrag zum Thema 'Nachhaltiges Reisen'. Befolge dabei diese Anweisungen:

1. Der Beitrag sollte eine Einleitung, drei Hauptabschnitte und ein Fazit enthalten.
2. Die drei Hauptabschnitte sollen sich auf Transportmittel, Unterkunft und lokale Aktivitäten konzentrieren.
3. Füge für jeden Hauptabschnitt mindestens zwei praktische Tipps ein.
4. Verwende einen freundlichen, aber informativen Ton.
5. Der Beitrag sollte etwa 400-500 Wörter umfassen.
6. Füge am Ende drei Fragen zur Reflexion für die Leser ein.
7. Verwende keine Klischees wie 'die Welt zu einem besseren Ort machen'."

In diesem Beispiel werden dem Modell sehr spezifische Anweisungen gegeben, die das Format, den Inhalt, den Ton und sogar zu vermeidende Phrasen definieren.

Beispiel: Mehrstufige Anweisungen für Datenanalyse
"Ich habe Verkaufsdaten für ein Unternehmen. Führe die folgenden Analysen durch:

1. Identifiziere die drei Monate mit den höchsten Verkaufszahlen.
2. Berechne die prozentuale Veränderung zwischen dem ersten und letzten Quartal.
3. Vergleiche die Leistung der Produkte A und B über den gesamten Zeitraum.
4. Erstelle eine kurze Zusammenfassung der wichtigsten Trends.
5. Gib drei datenbasierte Empfehlungen für das nächste Quartal.

Hier sind die Daten:
[Verkaufsdaten würden hier eingefügt]"

Dieses Beispiel zeigt, wie Instruction Prompting für eine mehrstufige Analyse verwendet werden kann, wobei jeder Schritt klar definiert ist.

Tipps für effektives Instruction Prompting

1. Verwenden Sie klare, handlungsorientierte Verben: Beginnen Sie Anweisungen mit Verben wie "Schreibe", "Analysiere", "Fasse zusammen", "Erkläre", um die erwartete Aktion deutlich zu machen.

2. Strukturieren Sie komplexe Anweisungen: Verwenden Sie Nummerierungen oder Aufzählungszeichen, um mehrere Anweisungen oder Anforderungen zu organisieren.

3. Spezifizieren Sie Einschränkungen und Anforderungen: Geben Sie klare Parameter wie Wortanzahl, Ton, Zielgruppe oder zu vermeidende Elemente an.

4. Priorisieren Sie Ihre Anweisungen: Wenn Sie mehrere Anweisungen geben, stellen Sie die wichtigsten an den Anfang, falls das Modell nicht alle gleich gut umsetzen kann.

5. Verwenden Sie präzise Sprache: Vermeiden Sie Mehrdeutigkeiten und vage Formulierungen in Ihren Anweisungen.

6. Geben Sie Kontext: Erklären Sie, warum Sie bestimmte Anforderungen haben oder für wen die Ausgabe bestimmt ist, um dem Modell zu helfen, angemessene Entscheidungen zu treffen.

System Prompts vs. User Prompts

Was sind System Prompts und User Prompts?

In vielen modernen LLM-Anwendungen und APIs gibt es eine Unterscheidung zwischen zwei Arten von Prompts:

System Prompts definieren den allgemeinen Kontext, die Rolle oder die Verhaltensregeln für das Modell. Sie setzen den Rahmen für die gesamte Konversation und beeinflussen, wie das Modell auf alle nachfolgenden Eingaben reagiert. System Prompts werden oft zu Beginn einer Sitzung festgelegt und bleiben während der gesamten Interaktion bestehen.

User Prompts sind die spezifischen Anfragen oder Anweisungen, die ein Benutzer dem Modell gibt. Sie beziehen sich auf bestimmte Aufgaben oder Fragen und können sich im Laufe einer Konversation ändern.

Diese Unterscheidung ist besonders relevant für Entwickler, die mit LLM-APIs arbeiten, aber auch für Endbenutzer von Anwendungen wie ChatGPT, die manchmal die Möglichkeit haben, benutzerdefinierte Systemanweisungen zu definieren.

Wann System Prompts verwenden?

System Prompts sind besonders nützlich für:

- Festlegen einer konsistenten Rolle oder Persona für das Modell
- Definition von globalen Verhaltensregeln oder Einschränkungen
- Bereitstellung von Hintergrundinformationen, die für die gesamte Konversation relevant sind
- Einrichtung eines spezifischen Formats oder Stils für alle Antworten

Beispiele für System Prompts und User Prompts

Beispiel: Technischer Support-Assistent
System Prompt:
"Du bist ein technischer Support-Assistent für ein Softwareunternehmen, das Bildbearbeitungssoftware entwickelt. Deine Aufgabe ist es, Benutzern bei technischen Problemen zu helfen. Halte deine Antworten freundlich, präzise und leicht verständlich. Wenn du eine Frage nicht beantworten kannst, gib dies ehrlich zu und verweise den Benutzer an den menschlichen Support. Verwende keine technischen Fachbegriffe ohne Erklärung."
User Prompt 1:
"Ich kann meine Bilder nicht als JPEG exportieren. Was kann ich tun?"
User Prompt 2:
"Gibt es einen Shortcut für das Zuschneiden-Tool?"

In diesem Beispiel legt der System Prompt die Rolle, den Ton und die Verhaltensregeln für das Modell fest, während die User Prompts spezifische Anfragen sind, die im Rahmen dieser Rolle beantwortet werden.

Beispiel: Historischer Charakter
System Prompt:
"Du verkörperst Leonardo da Vinci und antwortest, als wärst du er. Verwende historisch angemessene Sprache und Bezüge aus dem 15. und frühen 16. Jahrhundert. Dein Wissen endet mit deinem Tod im Jahr 1519. Wenn du nach Ereignissen oder Technologien gefragt wirst, die nach deiner Zeit entstanden sind, erkläre höflich, dass du davon nichts weißt. Beziehe dich auf deine Werke, Erfindungen und Zeitgenossen, wenn es angemessen ist."
User Prompt 1:
"Was hältst du von der Mona Lisa?"
User Prompt 2:
"Was denkst du über Smartphones?"

Hier definiert der System Prompt eine historische Persona mit spezifischen Einschränkungen bezüglich des Wissens und des Sprachstils, während die User Prompts verschiedene Fragen an diese Persona stellen.

Tipps für effektive System Prompts

1. Definieren Sie die Rolle klar: Geben Sie dem Modell eine eindeutige Identität oder Funktion.

2. Setzen Sie Grenzen: Definieren Sie, was das Modell wissen oder nicht wissen sollte, und wie es auf bestimmte Arten von Anfragen reagieren soll.

3. Legen Sie den Ton und Stil fest: Geben Sie Anweisungen zum gewünschten Kommunikationsstil (formal, freundlich, technisch, einfach, etc.).

4. Halten Sie es konzentriert: Vermeiden Sie zu viele widersprüchliche Anweisungen im System Prompt.

5. Testen und iterieren Sie: System Prompts können einen großen Einfluss auf die Modellantworten haben. Experimentieren Sie mit verschiedenen Formulierungen, um die besten Ergebnisse zu erzielen.

Kombination von Prompting-Techniken

Die wahre Kunst des Promptings liegt oft darin, verschiedene Techniken zu kombinieren, um die Stärken jeder Methode zu nutzen. Hier sind einige effektive Kombinationen:

Few-Shot Chain-of-Thought

Diese Kombination verbindet die Kraft von Beispielen mit explizitem schrittweisen Denken. Sie geben dem Modell Beispiele, die nicht nur die Eingabe und Ausgabe zeigen, sondern auch den Gedankengang, der zu dieser Ausgabe führt. Dies ist besonders effektiv für komplexe Reasoning-Aufgaben.

Beispiel: Few-Shot Chain-of-Thought
"Löse die folgenden Textaufgaben Schritt für Schritt.

Beispiel 1:
Frage: Ein Zug fährt mit 120 km/h. Wie weit kommt er in 2,5 Stunden?
Gedankengang: Ich muss die Geschwindigkeit mit der Zeit multiplizieren, um die Strecke zu berechnen.
Strecke = Geschwindigkeit × Zeit
Strecke = 120 km/h × 2,5 h
Strecke = 300 km
Antwort: Der Zug legt in 2,5 Stunden eine Strecke von 300 km zurück.

Beispiel 2:
Frage: Ein Rechteck hat eine Länge von 12 m und eine Breite von 5 m. Wie groß ist sein Umfang?
Gedankengang: Der Umfang eines Rechtecks berechnet sich als 2 × (Länge + Breite).
Umfang = 2 × (12 m + 5 m)
Umfang = 2 × 17 m
Umfang = 34 m
Antwort: Der Umfang des Rechtecks beträgt 34 m.

Jetzt löse diese Aufgabe:
Ein Auto fährt mit einer Geschwindigkeit von 80 km/h. Nach 1,5 Stunden erhöht der Fahrer die Geschwindigkeit auf 100 km/h und fährt weitere 2 Stunden. Wie weit ist das Auto insgesamt gefahren?"

Dieses Beispiel kombiniert Few-Shot Learning (durch die Bereitstellung von Beispielen) mit Chain-of-Thought (durch die Demonstration des Denkprozesses in jedem Beispiel).

Instruction Prompting mit System Prompts

Diese Kombination nutzt System Prompts, um den allgemeinen Rahmen zu setzen, und detaillierte Instruction Prompts für spezifische Aufgaben. Dies ist besonders nützlich für komplexe Szenarien, in denen konsistentes Verhalten über mehrere Anfragen hinweg wichtig ist.

Beispiel: Instruction Prompting mit System Prompts
System Prompt:
"Du bist ein Experte für Datenanalyse und Visualisierung. Deine Aufgabe ist es, komplexe Daten verständlich zu erklären und Visualisierungsvorschläge zu machen. Verwende präzise Fachbegriffe, erkläre sie aber, wenn sie zum ersten Mal verwendet werden. Beziehe dich auf Best Practices der Datenvisualisierung und berücksichtige immer das Zielpublikum bei deinen Empfehlungen."
User Prompt (Instruction Prompting):
"Analysiere die folgenden Verkaufsdaten eines E-Commerce-Unternehmens:
[Daten würden hier eingefügt]

Führe folgende Aufgaben aus:
1. Identifiziere die drei wichtigsten Trends in den Daten.
2. Schlage für jeden Trend eine geeignete Visualisierungsmethode vor und begründe deine Wahl.
3. Erkläre, welche zusätzlichen Daten hilfreich wären, um die Analyse zu vertiefen.
4. Fasse die Erkenntnisse in einer kurzen Executive Summary zusammen, die für Nicht-Experten verständlich ist."

Hier wird ein System Prompt verwendet, um die Rolle und den allgemeinen Kommunikationsstil festzulegen, während der User Prompt detaillierte Anweisungen für eine spezifische Aufgabe gibt.

Nächste Schritte

Jetzt, da Sie verschiedene fortgeschrittene Prompting-Techniken kennengelernt haben, ist es an der Zeit, diese in der Praxis anzuwenden. Im nächsten Abschnitt werden wir interaktive Beispiele erkunden, die Ihnen helfen, Ihr Verständnis zu vertiefen und Ihre Prompting-Fähigkeiten zu verbessern.