12 Prompting Techniken fĂŒr bessere Ergebnisse in der Arbeit mit LLMsÂ
- Zero Shot Prompting
- One / Few-Shot Prompting
- Chain-of-Thought Prompting
- Step-Back Prompting
- Self Consistency Prompting
- Instruction Tuning Prompting
- Role-Based Prompting
- Retrieval Argumented Generation (RAG) Prompting
- ReAct (Reasoning + Acting) Prompting
- Reflexion Prompting
- Automatic Prompt Engineering (APE)
- Wenn Du Hilfe brauchst âŠ
Zu einem guten Prompt Engineering zÀhlen auch die Kenntnis und das VerstÀndnis unterschiedlicher Prompting Techniken und Strategien. Ich erklÀre dir zwölf unterschiedliche Prompting Techniken, mit denen Du deine EffektivitÀt, Effizienz und QualitÀt in der Arbeit mit KI-Systemen deutlich steigern wirst.
Zero-Shot Prompting
Bei dieser Prompting Technik erhĂ€lt die KI nur eine direkte Anfrage, ohne ergĂ€nzende Beispiele oder weiterfĂŒhrenden Kontext. Der Vorteil des Zero-Shot Prompting ist die schnelle und einfache Anwendung. Der gröĂte Nachteil ist sicherlich, dass Du mit den Antworten nicht wirklich arbeiten kannst.
đ Beispiel: âErklĂ€re Blockchain.â
â Vorteil: Schnell und einfach.
â Nachteil: UnprĂ€zise und unspezifisch, potentiell unbrauchbar.
One / Few-Shot Prompting
Beim One / Few-Shot Prompting bekommt die KI ein (One Shot) oder mehrere Beispiele, um den gewĂŒnschten Antwortstil oder die Struktur zu lernen. Der gröĂte Nachteil des Few-Shot Prompting ist sicherlich, dass Du vorab eigenen Gehirnschmalz in die ersten Beispiele investierst. DafĂŒr profitierst Du dann von konsistenten Antworten. Das Few-Shot Prompting lohnt sich vor allem dann, wenn Du eine groĂe Zahl wiederkehrender Aufgaben hast.Â
đ Beispiel: ErklĂ€re Begriffe wie in diesen Beispielen: KI ist wie ein Gehirn, Cloud ist wie ein unsichtbarer Speicher. ErklĂ€re in dieser Art die Blockchain.
â Vorteil: Konsistente und gezieltere Antworten.
â Nachteil: Erfordert mehr Vorarbeit im Prompting.
Chain-of-Thought Prompting
Beim Chain-of-Thought Prompting forderst Du die KI auf, Lösungen schrittweise zu prĂ€sentieren. Diese Art des Prompting ist vor allem dann sinnvoll, wenn Du einen genauen Ablauf und ein âHow Toâ als Antwort erwartest.Â
đ Beispiel: ErklĂ€re Schritt fĂŒr Schritt, wie man eine Primzahl erkennt.
â Vorteil: Genauer Ablauf fĂŒr komplexe Aufgaben.
â Nachteil: Kann zu langen und sehr detaillierten Antworten fĂŒhren.
Um den potentiellen Nachteil auszugleichen, kannst Du das Chain-of-Thought einfach mit dem Few-Shot Prompting kombinieren und deinem Assistenzsystem direkt ein paar Beispiele mitgeben, in welchem Umfang Du einzelne Bearbeitungsschritte erhalten möchtest.

Step-Back Prompting
Beim Step-Back-Prompting wird die KI zunĂ€chst dazu aufgefordert, eine allgemeine Frage zum Thema zu betrachten, bevor sie die spezifische Aufgabe bearbeitet.Â
đ Beispiel: Anstatt direkt "Warum ist meine Website langsam?" zu fragen, fragst Du zunĂ€chst "Was sind die Hauptfaktoren fĂŒr eine gute Website-Performance?" und dann "Meine E-Commerce-Site lĂ€dt 8 Sekunden - was könnte das Problem sein?"
â Vorteil: Reduziert Verzerrungen, aktiviert tieferes Wissen, fĂŒhrt zu durchdachteren und genaueren Antworten.
â Nachteil: Benötigt zusĂ€tzliche Schritte und kann bei einfachen Aufgaben unnötig komplex sein.
Das Step-Back-Prompting kannst DU auch als eine besondere Form des Chain-of-Thought Prompting verstehen. Dabei aktivierst Du mit deinem Prompt relevantes Hintergrundwissen und Denkprozesse, wodurch die KI fundierte und durchdachte Antworten generiert. Dadurch kann die KI kritischer denken und ihr Wissen kreativer anwenden.
Self-Consistency Prompting
Beim Self-Consistency Prompting bereitet das Large Language Modell mehrere Antworten vor, um eigenstĂ€ndig die beste Antwort vorzuschlagen. Der gröĂte Vorteil ist sicherlich, dass Du mehrere ErklĂ€rungsmodelle auf dem Silbertablett serviert bekommst. Ein möglicher Nachteil ist, dass Du das Denken einstellst und die beste Antwort einfach ĂŒbernimmst.Â
đ Beispiel: Warum ist der Himmel blau? Generiere mehrere Antworten, um dann die beste auszuwĂ€hlen.
â Vorteil: Auswahl mehrerer Antwortmöglichkeiten
â Nachteil: Erfordert theoretische mehr Rechenleistung und Bearbeitungszeit.

Tree of Thoughts (ToT) Prompting
Die Tree of Thoughts Prompting Technik erweitert das Chain of Thought Prompting, indem es LLMs ermöglicht, mehrere Denkpfade gleichzeitig zu erkunden statt nur einer linearen Gedankenkette zu folgen. Das Modell erstellt einen "Gedankenbaum" mit verschiedenen LösungsansÀtzen und bewertet jeden Pfad systematisch.
đ Beispiel: "Plane eine 3-tĂ€gige Reise nach Berlin mit 500 Euro Budget. Erstelle 3 verschiedene Konzepte: 1) Kultur-fokussiert, 2) Food-fokussiert, 3) Nachtleben-fokussiert. Bewerte jeden Ansatz nach Kosten und Machbarkeit, dann wĂ€hle den besten aus."
â Vorteil: FĂŒhrt zu durchdachteren, kreativeren Lösungen durch systematische Exploration verschiedener Optionen.
â Nachteil: Benötigt deutlich mehr Rechenzeit und komplexere Prompts als einfaches Chain of Thought.

Instruction-Tuning Prompting
Bei der Prompting Technik gibst Du dem KI-Assistenten prĂ€zise Anweisungen, um Antworten in einem bestimmten Stil oder Format zu geben. Das heiĂt, mit dem Instruction-Tuning Prompting spezifizierst Du vor allem in Bezug auf den Stil der Antworten des Assistenten. Das Instruction-Tuning Prompting ist also ein elementarer Eckpfeiler des Prompt Engineering.Â
đ Beispiel: Antworte in einem professionellen Ton und verwende maximal drei SĂ€tze.
â Vorteil: Hohe Kontrolle ĂŒber Ton, LĂ€nge und Stil der Antwort.
â Nachteil: Funktioniert nur, wenn das Modell gut auf die Art der Anweisungen trainiert ist.

Role-Based Prompting
Beim Role- oder auch Persona Based Prompting forderst Du KI-Modelle auf eine bestimmte Rolle anzunehmen. Der Vorteil dieser Prompting Technik ist, dass Du Interaktionen deutlich authentischer gestalten kannst. Die Gefahr jedoch, dass das KI-Modell ggf viel Kontext braucht, um diese Rolle auch seriös auszufĂŒllen.
đ Beispiel: Du bist ein erfahrener Arzt, erklĂ€re einem Patienten, was Bluthochdruck bedeutet.
â Vorteil: Realistische und kontextbezogene Antworten.
â Nachteil: Kann zu subjektiven oder voreingenommenen Antworten fĂŒhren.
Role based Prompting am Beispiel Crew.ai
Im Agenten-Framework Crew.ai kannst Du beim Aufsetzen eines KI-Agenten folgende Attribute verwenden. Das ist ein guter Anhaltspunkt, den Du in die Definition einer Rolle alles einflieĂen lassen kannst.
- Role - Definiert die Funktion und Expertise des Agenten
- Goal - Das individuelle Ziel, das die Entscheidungen des Agenten leitet
- Backstory - Kontext und Persönlichkeit fĂŒr reichere Interaktionen
Retrieval-Augmented Generation (RAG) Prompting
Retrieval-Augmented Generation (RAG) ist eine der wichtigsten Techniken. Bei dieser Prompting Technik kombinieren Large Language Modelle internes Wissen mit externen Datenquellen, um aktuellere und genauere Antworten zu liefern. Das RAG Prompting setzt natĂŒrlich voraus, dass Du Zugriff auf externe Datenquellen hast oder deinem KI-Agenten diesen Zugriff gewĂ€hren kannst.Â
đ Beispiel: Suche die aktuellen Wetterdaten der 10 gröĂten deutschen StĂ€dte und fasse sie zusammen.
â Vorteil: Ideal fĂŒr dynamische Aufgaben mit externen Datenquellen.
â Nachteil: Funktioniert nur mit Zugriff auf verlĂ€ssliche Datenquellen.

ReAct (Reasoning + Acting) Prompting
Beim ReAct Prompting lĂ€sst Du KI-Systeme erst nachdenken (Reasoning), um dann zu handeln (Acting). Das âActingâ setzt voraus, dass das LLM auch Zugang zu externen Tools hat. Ohne Tools, kein "Actingâ, kein ReAct, dann bist Du eher in der DomĂ€ne anderer Prompting Strategien (z.B. Chain-of-Thought, Step-Back Prompting). Die FĂ€higkeit zur eigenstĂ€ndigen Problemlösung mit externen Tools macht ReAct zu einem wichtigen Baustein fĂŒr autonome KI-Agenten.

đ Beispiel: "Ordne meine E-Mails nach Wichtigkeit."
đ§ ReAct-Prozess:
- Gedanke: Ich schaue mir erst die E-Mails an, um Kategorien zu erkennen
- Handlung: [E-Mail-Postfach analysieren]
- Beobachtung: Sehe 50 E-Mails - Meetings, Rechnungen, Newsletter, Kundenanfragen
- Gedanke: Kundenanfragen sind am dringendsten, dann Meetings fĂŒr heute
- Handlung: [Erstelle Kategorie "Urgent" fĂŒr Kundenanfragen]
- Beobachtung: 5 Kundenanfragen markiert
- Gedanke: Jetzt die heutigen Termine priorisieren
- Handlung: [Sortiere Meeting-E-Mails nach heutigem Datum]
- Ergebnis: E-Mails in 3 PrioritÀtsstufen sortiert: Urgent, Heute, SpÀter
â Vorteil: Löst komplexe Organisationsaufgaben durch schrittweise Analyse und Anpassung der Strategie.
â Nachteil: Benötigt Tool-Zugriff, kann zeitaufwĂ€ndig und teuer werden.
Dabei kann ReAct Prompting natĂŒrlich auch RAG nutzen (z.B.: Rufe das Wetter von Berlin, Hamburg, MĂŒnchen ab, entscheide, wo ich hinfahre und was ich einpacken muss). Das prĂ€gnante Merkmal der ReAct Prompting Technik ist jedoch das iterative Denken-Handeln-Prinzip. Auch unabhĂ€ngig davon, ob externe Daten abgerufen werden.
đ Beispiel: "Entscheide, wo ich hinfahren soll und was ich einpacken muss."
đ§ ReAct-Prozess mit RAG:
- Gedanke: Ich brauche Wetterdaten fĂŒr alle drei StĂ€dte
- Handlung: [RAG: Wetter Berlin, Hamburg, MĂŒnchen abrufen]
- Beobachtung: Berlin 15°C/Regen, Hamburg 12°C/bewölkt, MĂŒnchen 22°C/sonnig
- Gedanke: MĂŒnchen hat das beste Wetter, dort fahre ich hin
- Handlung: [Entscheidung treffen: MĂŒnchen]
- Gedanke: Bei 22°C und Sonne brauche ich Sommerkleidung
- Handlung: [Packliste erstellen basierend auf Wetter]
- Ergebnis: Fahre nach MĂŒnchen, packe T-Shirts, Shorts, Sonnenbrille
Beim ReAct Prompting forderst Du LLM also auf, iterativ ĂŒber eine Aufgabe oder ein Problem nachzudenken, um dann eine konkrete Handlung auszufĂŒhren.
Reflexion-Prompting
Das sogenannte Reflexion-Prompting bedeutet, dass Du ein Large Language Modell aufforderst, ihre eigenen Antworten zu bewerten, SchwĂ€chen zu erkennen und Alternativen zu erwĂ€gen. Auf Basis der EinschĂ€tzung kannst Du dann deine Prompts weiter ausrichten. Man könnte vereinfacht sagen, dass das Reflexion Prompting eine Variante des ReAct Prompting ist mit einem âHuman in the Loopâ.Â
đ Beispiel: ErklĂ€re mir Value-Based Pricing. (siehe Beispiel).
â Vorteil: Mehrstufige, flexible Herangehensweise mit âHuman in the Loopâ.
â Nachteil: LĂ€ngere Bearbeitungszeit, ggf differenzierte Prompts.
User | ErklÀre mir Value-Based Pricing. |
Assistant | Value-Based Pricing bedeutet, dass der Preis eines Produkts auf dem wahrgenommenen Wert fĂŒr den Kunden basiert. |
User - Reflexion | Bewerte deine Antwort: Ist sie detailliert genug? Gibt es konkrete Beispiele? |
Assistant - Reflexion | Die Antwort ist korrekt, aber zu allgemein. Ein Beispiel fehlt. |
User | Verbessere deine Antwort mit einem Beispiel und einem Praxisbezug. |
Assistant | Value-Based Pricing bedeutet, dass der Preis eines Produkts auf dem wahrgenommenen Wert fĂŒr den Kunden basiert. Beispiel: Apple setzt hohe Preise fĂŒr iPhones an, weil die Marke einen starken emotionalen Wert fĂŒr Nutzer hat. |
Automatic Prompt Engineering (APE)
Automatic Prompt Engineering ist eine Meta-Technik, bei der Du ein LLM nutzt, um bessere Prompts zu erstellen. Das heiĂt, Du lĂ€sst Prompts schreiben, um diese dann in ein LLM zu ĂŒbergeben. Lass uns das Automatic Prompt Engineering (APE) an einem einfachen Beispiel anschauen
đ Prompt: âIch will einen Text ins Deutsche ĂŒbersetzen. Vor allem ist mir wichtig, dass ich englische Wörter, die eingebĂŒrgert sind, beibehalte. Schreibe mir dazu einen Prompt.â
đ§ Antwort: Ăbersetze den folgenden Text ins Deutsche. Behalte dabei englische Wörter bei, die im deutschen Sprachgebrauch etabliert und gebrĂ€uchlich sind (wie "Meeting", "Team", "E-Mail", "Marketing", "Business", "Laptop", "Software", "Online", "Update", "Download", etc.). Ăbersetze nur Wörter ins Deutsche, die im deutschen Alltag unĂŒblich oder fremd klingen wĂŒrden.

Das LLM formuliert mir einen Prompt und wendet dabei eine automatisch bewĂ€hrte Prompting Technik an. In unserem einfachen Beispiel das One / Few-Shot Prompting (Beispiele als Teil des Prompts) und Instruction-Tuning Prompting (Klare Anweisungen "Behalte bei...", "Ăbersetze nur...").Â
Hier ist ein weiterfĂŒhrendes Automated Prompting Beispiel, dabei lĂ€sst Du das LLM unterschiedliche Prompts generieren, um ein Chatbot zu trainieren.Â

đ Beispiel: Schreibe einen Prompt fĂŒr einen Kundenservice-Chatbot, der E-Mail-Reklamationen bearbeitet. Der Bot soll empathisch, lösungsorientiert und professionell antworten. Wichtig ist auch, dass verschiedene Reklamationstypen (defekte Ware, verspĂ€tete Lieferung, falsche Bestellung) unterschiedlich behandelt werden.
đ§ Antwort: Du bist ein erfahrener Kundenservice-Spezialist mit 10 Jahren Erfahrung (Role-Based).Â
Analysiere zunĂ€chst den Reklamations-Typ, bevor du antwortest (Step-Back).Â
Folge diesem strukturierten Vorgehen (Chain-of-Thought): 1. Erkenne die Art der Reklamation 2. Zeige Empathie und VerstĂ€ndnis 3. Biete konkrete Lösungen an 4. Ăberrasche mit zusĂ€tzlichem ServiceÂ
Beispiele fĂŒr verschiedene Typen (Few-Shot): Defekte Ware: "Entschuldigung + Ursachenanalyse + Ersatz + Gutschein" VerspĂ€tung: "Entschuldigung + Tracking-Info + Expressversand" Falschlieferung: "Entschuldigung + Abholung + Erneute Lieferung + Bonus"Â
Antworte professionell, aber menschlich. Vermeide Standardfloskeln.
AbschlieĂende Tips & Best Practices
Bevor Du dich jedoch in diesen Prompting Techniken verlierst, hier nochmal wesentliche âbest practicesâ fĂŒr ein gutes Prompting:
- Beispiele: Wann immer Du kannst, gib der KI eigene Beispiele.
- Keep it Simple: Baue deine Prompts so einfach wie möglich auf, zusÀtzliche Instruktionen nur wo es wirklich notwendig ist.
- Spezifiziere den Output: formuliere klare Erwartungen an den Output. Wenn Du eine Tabelle willst, dann spezifiziere wie sich Zeilen und Spalten zueinander verhalten sollen und dass Du das Ergebnis in ein gSheet kopieren willst.Â
- Instruktionen statt EinschrĂ€nkungen: Explizite Anweisungen zum gewĂŒnschten Format, Stil oder Inhalt der Antwort sind besser als EinschrĂ€nkungen, was das Modell nicht tun oder vermeiden soll.
- Struktur: Gerade bei lĂ€ngeren Prompts, achte auf eine gute und âhuman readableâ Struktur fĂŒr eine dauerhafte Optimierung.
FĂŒr die Anwendung in skalierten Umgebungen ist es auĂerdem noch wichtig, die Kosten respektive den Umfang des Outputs ĂŒber spezifische Instruktionen zu steuern. Zudem empfiehlt sich dann auch der Einsatz von Variablen.
Fazit - Prompting ist wie Fahrrad fahren
Der Fantasie sind beim Prompting keine Grenzen gesetzt. Die unterschiedlichen Prompting Techniken bieten dir ein grundlegendes RĂŒstzeug, diesen wichtigen Skill weiter zu schĂ€rfen. Dabei wĂŒrde ich nach dem ShuHaRi Prinzip vorgehen: Mit den hier vorgestellten Prompting Techniken anfangen, nachmachen, Ergebnisse bewerten und Prompts verfeinern. Wenn das sitzt, dann beginnen einzelne Prompting Techniken miteinander zu kombinieren. Das ist dann wie beim Fahrrad fahren: irgendwann fĂ€hrst Du freihĂ€ndig auf dem Hinterrad. Alles eine Frage der Ăbung.
Viel Erfolg dabei.


Andreas Diehl
Vom Kenner zum Könner
Als GrĂŒnder der dno stehe ich dir fĂŒr dein Anliegen zur praktischen Anwendung gerne persönlich zur VerfĂŒgung.
1:1 Coaching
Ich nehmen mir Zeit deine Fragen zu beantworten. Schnell, einfach, unkompliziert auch ohne Beratungsmandat.
VortrÀge & Schulungen
Wir prÀsentieren und erklÀren das Thema live auf deinem Event in internen Mitarbeitern Lunch & Learns oder Schulungen.
Anfrage sendenBeratung & Workshops
Sofern Du weiterfĂŒhrende UnterstĂŒtzung benötigst, stell dir einen unverbindlichen Strategiecall ein, um dein Anliegen zu besprechen.
Anfrage sendenWeiterfĂŒhrende BeitrĂ€ge
Was suchst Du?
- Zero Shot Prompting
- One / Few-Shot Prompting
- Chain-of-Thought Prompting
- Step-Back Prompting
- Self Consistency Prompting
- Instruction Tuning Prompting
- Role-Based Prompting
- Retrieval Argumented Generation (RAG) Prompting
- ReAct (Reasoning + Acting) Prompting
- Reflexion Prompting
- Automatic Prompt Engineering (APE)
- Wenn Du Hilfe brauchst âŠ