10 Prompting Strategien für eine Interaktion mit KI-Systemen
Zu einem guten Prompt Engineering zählen auch die Kenntnis und das Verständnis unterschiedlicher Prompting Techniken und Strategien. Ich erkläre die zwölf unterschiedliche Prompting Strategien, mit denen Du deine Effektivität, Effizienz und Qualität in der Arbeit mit KI-Systemen deutlich steigern wirst.
Zero-Shot Prompting
Bei dieser Prompting Strategie erhält die KI nur eine direkte Anfrage, ohne ergänzende Beispiele oder weiterführenden Kontext. Der Vorteil des Zero-Shot Prompting ist die schnelle und einfache Anwendung. Der größte Nachteil ist sicherlich, dass Du mit den Antworten nicht wirklich arbeiten kannst.
📌 Beispiel: „Erkläre Blockchain.“
✅ Vorteil: Schnell und einfach.
❌ Nachteil: Unpräzise und unspezifisch, potentiell unbrauchbar.
Few-Shot Prompting
Beim Few-Shot Prompting bekommt die KI einige Beispiele, um den gewünschten Antwortstil oder die Struktur zu lernen. Der größte Nachteil des Few-Shot Prompting ist sicherlich, dass Du vorab eigenen Gehirnschmalz in die ersten Beispiele investierst. Dafür profitierst Du dann von konsistenten Antworten. Das Few-Shot Prompting lohnt sich vor allem dann, wenn Du eine große Zahl wiederkehrender Aufgaben hast.
📌 Beispiel: Erkläre Begriffe wie in diesen Beispielen: KI ist wie ein Gehirn, Cloud ist wie ein unsichtbarer Speicher. Erkläre in dieser Art die Blockchain.
✅ Vorteil: Konsistente und gezieltere Antworten.
❌ Nachteil: Erfordert mehr Vorarbeit im Prompting.
Chain-of-Thought Prompting
Beim Chain-of-Thought Prompting forderst Du die KI auf, Lösungen schrittweise zu präsentieren. Diese Art des Prompting ist vor allem dann sinnvoll, wenn Du einen genauen Ablauf und ein “How To” als Antwort erwartest.
📌 Beispiel: Erkläre Schritt für Schritt, wie man eine Primzahl erkennt.
✅ Vorteil: Genauer Ablauf für komplexe Aufgaben.
❌ Nachteil: Kann zu langen und sehr detaillierten Antworten führen.
Um den potentiellen Nachteil auszugleichen, kannst Du das Chain-of-Thought einfach mit dem Few-Shot Prompting kombinieren und deinem Assistenzsystem direkt ein paar Beispiele mitgeben, in welchem Umfang Du einzelne Bearbeitungsschritte erhalten möchtest.

Step-Back Prompting
Beim Step-Back-Prompting wird die KI zunächst dazu aufgefordert, eine allgemeine Frage zum Thema zu betrachten, bevor sie die spezifische Aufgabe bearbeitet.
📌 Beispiel: Anstatt direkt "Warum ist meine Website langsam?" zu fragen, fragst Du zunächst "Was sind die Hauptfaktoren für eine gute Website-Performance?" und dann "Meine E-Commerce-Site lädt 8 Sekunden - was könnte das Problem sein?"
✅ Vorteil: Reduziert Verzerrungen, aktiviert tieferes Wissen, führt zu durchdachteren und genaueren Antworten.
❌ Nachteil: Benötigt zusätzliche Schritte und kann bei einfachen Aufgaben unnötig komplex sein.
Das Step-Back-Prompting kannst DU auch als eine besondere Form des Chain-of-Thought Prompting verstehen. Dabei aktivierst Du mit deinem Prompt relevantes Hintergrundwissen und Denkprozesse, wodurch die KI fundierte und durchdachte Antworten generiert. Dadurch kann die KI kritischer denken und ihr Wissen kreativer anwenden.
Self-Consistency Prompting
Beim Self-Consistency Prompting bereitet das Large Language Modell mehrere Antworten vor, um eigenständig die beste Antwort vorzuschlagen. Der größte Vorteil ist sicherlich, dass Du mehrere Erklärungsmodelle auf dem Silbertablett serviert bekommst. Ein möglicher Nachteil ist, dass Du das Denken einstellst und die beste Antwort einfach übernimmst.
📌 Beispiel: Warum ist der Himmel blau? Generiere mehrere Antworten, um dann die beste auszuwählen.
✅ Vorteil: Auswahl mehrerer Antwortmöglichkeiten
❌ Nachteil: Erfordert theoretische mehr Rechenleistung und Bearbeitungszeit.

Tree of Thoughts (ToT) Prompting
Die Tree of Thoughts Prompting Technik erweitert das Chain of Thought Prompting, indem es LLMs ermöglicht, mehrere Denkpfade gleichzeitig zu erkunden statt nur einer linearen Gedankenkette zu folgen. Das Modell erstellt einen "Gedankenbaum" mit verschiedenen Lösungsansätzen und bewertet jeden Pfad systematisch.
📌 Beispiel: "Plane eine 3-tägige Reise nach Berlin mit 500 Euro Budget. Erstelle 3 verschiedene Konzepte: 1) Kultur-fokussiert, 2) Food-fokussiert, 3) Nachtleben-fokussiert. Bewerte jeden Ansatz nach Kosten und Machbarkeit, dann wähle den besten aus."
✅ Vorteil: Führt zu durchdachteren, kreativeren Lösungen durch systematische Exploration verschiedener Optionen.
❌ Nachteil: Benötigt deutlich mehr Rechenzeit und komplexere Prompts als einfaches Chain of Thought.

Instruction-Tuning Prompting
Bei der Prompting Strategie gibst Du dem KI-Assistenten präzise Anweisungen, um Antworten in einem bestimmten Stil oder Format zu geben. Das heißt, mit dem Instruction-Tuning Prompting spezifizierst Du vor allem in Bezug auf den Stil der Antworten des Assistenten. Das Instruction-Tuning Prompting ist also ein elementarer Eckpfeiler des Prompt Engineering.
- 📌 Beispiel: Antworte in einem professionellen Ton und verwende maximal drei Sätze.
- ✅ Vorteil: Hohe Kontrolle über Ton, Länge und Stil der Antwort.
- ❌ Nachteil: Funktioniert nur, wenn das Modell gut auf die Art der Anweisungen trainiert ist.

Role- / Persona Based Prompting
Beim Role- oder auch Persona Based Prompting forderst Du KI-Modelle auf eine bestimmte Rolle oder auch Persönlichkeit anzunehmen. Der Vorteil dieser Prompting Strategie ist, dass Du Interaktionen deutlich authentischer gestalten kannst. Der Nachteil natürlich, dass die KI
- 📌 Beispiel: Du bist ein erfahrener Arzt, erkläre einem Patienten, was Bluthochdruck bedeutet.
- ✅ Vorteil: Realistische und kontextbezogene Antworten.
- ❌ Nachteil: Kann zu subjektiven oder voreingenommenen Antworten führen.
Role based Prompting am Beispiel Crew.ai
Im Agenten-Framework Crew.ai kannst Du beim Aufsetzen eines KI-Agenten folgende Attribute verwenden. Das ist ein guter Anhaltspunkt, den Du in die Definition einer Rolle alles einfließen lassen kannst.
- Role - Definiert die Funktion und Expertise des Agenten
- Goal - Das individuelle Ziel, das die Entscheidungen des Agenten leitet
- Backstory - Kontext und Persönlichkeit für reichere Interaktionen
Retrieval-Augmented Generation (RAG) Prompting
Bei dieser Prompting-Strategie kombinieren Large Language Modelle internes Wissen mit externen Datenquellen, um aktuellere und genauere Antworten zu liefern. Das RAG Prompting setzt natürlich voraus, dass Du Zugriff auf externe Datenquellen hast oder deinem KI-Agenten diesen Zugriff gewähren kannst.
- 📌 Beispiel: Suche die aktuellen Wetterdaten der 10 größten deutschen Städte und fasse sie zusammen.
- ✅ Vorteil: Ideal für dynamische Aufgaben mit externen Datenquellen.
- ❌ Nachteil: Funktioniert nur mit Zugriff auf verlässliche Datenquellen.

ReAct (Reasoning + Acting) Prompting
Beim ReAct Prompting forderst Du die KI auf iterativ zu denken, zu handeln und Informationen miteinander zu kombinieren. Dabei gibt dir die KI das Vorgehen strukturiert zurück.
- 📌 Beispiel: Berechne den größten gemeinsamen Teiler von 48 und 180.
- ✅ Vorteil: Mehrstufige, flexible Herangehensweise.
- ❌ Nachteil: Mehr Iterationen, höhere Rechenleistung und längere Bearbeitungszeit.

Reflexion-Prompting
Das sogenannte Reflexion-Prompting bedeutet, dass Du ein Large Language Modell aufforderst, ihre eigenen Antworten zu bewerten, Schwächen zu erkennen und Alternativen zu erwägen. Auf Basis der Einschätzung kannst Du dann deine Prompts weiter ausrichten. Man könnte vereinfacht sagen, dass das Reflexion Prompting eine Variante des ReAct Prompting ist mit einem “Human in the Loop”.
- 📌 Beispiel: Erkläre mir Value-Based Pricing. (siehe Beispiel).
- ✅ Vorteil: Mehrstufige, flexible Herangehensweise mit “Human in the Loop”.
- ❌ Nachteil: Längere Bearbeitungszeit, ggf differenzierte Prompts.
User | Erkläre mir Value-Based Pricing. |
Assistant | Value-Based Pricing bedeutet, dass der Preis eines Produkts auf dem wahrgenommenen Wert für den Kunden basiert. |
User - Reflexion | Bewerte deine Antwort: Ist sie detailliert genug? Gibt es konkrete Beispiele? |
Assistant - Reflexion | Die Antwort ist korrekt, aber zu allgemein. Ein Beispiel fehlt. |
User | Verbessere deine Antwort mit einem Beispiel und einem Praxisbezug. |
Assistant | Value-Based Pricing bedeutet, dass der Preis eines Produkts auf dem wahrgenommenen Wert für den Kunden basiert. Beispiel: Apple setzt hohe Preise für iPhones an, weil die Marke einen starken emotionalen Wert für Nutzer hat. |
Fazit - Prompting ist wie Fahrrad fahren
Du musst nicht wissen, wie ein Fahrrad funktioniert, um Fahrrad zu fahren. Aber das Wissen darüber hilft dir schneller, sicherer und effizienter zu fahren. So ähnlich ist das mit diesen Prompting Strategien: Sie helfen dir noch besser zu verstehen, wie Large Language Modelle funktionieren. So verbessern diese Prompting Strategie deine Effektivität, Effizienz und Qualität in der Arbeit mit Large Language Modellen.
Viel Erfolg dabei.


Andreas Diehl
Vom Kenner zum Könner
Als Gründer der dno stehe ich dir für dein Anliegen zur praktischen Anwendung gerne persönlich zur Verfügung.
1:1 Coaching
Ich nehmen mir Zeit deine Fragen zu beantworten. Schnell, einfach, unkompliziert auch ohne Beratungsmandat.
Vorträge & Schulungen
Wir präsentieren und erklären das Thema live auf deinem Event in internen Mitarbeitern Lunch & Learns oder Schulungen.
Anfrage sendenBeratung & Workshops
Sofern Du weiterführende Unterstützung benötigst, stell dir einen unverbindlichen Strategiecall ein, um dein Anliegen zu besprechen.
Anfrage senden