So schreibst du den perfekten Prompt - GPT Engineering

Den perfekten ChatGPT Prompt erstellen - Prompt Engineering

Möchtest du mehr zum Thema Prompt Erstellen erfahren?

Prompt erstellen! Als jemand, der täglich mit großen Sprachmodellen wie GPT und Claude arbeitet, kenne ich die Herausforderungen, aber auch die unglaublichen Möglichkeiten des Prompt Engineerings.

Du möchtest also lernen, wie man den perfekten ChatGPT Prompt erstellt? Kein Problem, du bist hier genau richtig!

In diesem Artikel möchte ich meine persönlichen Erfahrungen und Tipps teilen, wie man den perfekten Prompt für KI-Modelle schreibt und so die gewünschten Ergebnisse bekommt.

☝️ Kernpunkte auf einen Blick

  • 🤖 Auswahl des KI-Modells: Die Auswahl des passenden KI-Modells (GPT-4, Claude-2, oder Gemini) ist entscheidend für die Qualität des Prompts.
  • ✍️ Klare Anweisungen: Detaillierte und spezifische Prompts verbessern die Ergebnisse. Formatierungen helfen, unterschiedliche Teile des Prompts zu trennen.
  • ⏳ Geduldiges Modell: Das Modell benötigt Zeit, um durchdachte Antworten zu formulieren. Fragen sollten wiederholt und angepasst werden, um nuancierte Ergebnisse zu erzielen.

Tipp 1: Verwende das passende Modell

Die erste Entscheidung besteht darin, welches KI-Modell (künstliche Intelligenz) man überhaupt verwenden möchte. Mittlerweile gibt es eine ganze Reihe leistungsstarker Optionen wie ChatGPT, Claude, GPT-3.5 oder Bard. Je nach Anwendungsfall eignen sich unterschiedliche Modelle besser.

LLMErste VeröffentlichungEntwickler
ChatGPT2022-11-30OpenAI
Bard2023-03-21Google
Claude2023-03-14Anthropic
  • GPT-3.5 für einfache Aufgaben, entwickelt von OpenAI, ist ein Nachfolger des beliebten GPT-3 Modells und basiert auf einer umfangreichen Datensammlung aus Texten und Code.
  • GPT-4 für Entwicklung und umfangreiche Aufgaben ist die neueste Version des GPT-Sprachmodells von OpenAI. Es wurde auf einer riesigen Datensammlung aus Text und Code trainiert und verfügt über deutlich mehr Parameter als die vorherigen Versionen. GPT-4 hat in verschiedenen Benchmarks seine Überlegenheit gegenüber früheren Versionen bewiesen und ist ein mächtiges Instrument für Entwickler und Blogger, die große Sprachmodelle einsetzen wollen.
  • Bard für SEO Tasks ist ein von Google AI entwickeltes umfangreiches Sprachmodell, basierend auf dem PaLM 2 Modell. Dieses zählt zu den größten und leistungsfähigsten Sprachmodellen, die bisher entwickelt wurden. Bard befindet sich zwar noch in der Entwicklungsphase, hat jedoch bereits sein beeindruckendes Potenzial unter Beweis gestellt. Es kann kreativen Inhalt in verschiedenen Formen schreiben, Sprachen übersetzen und Fragen informativ beantworten.
  • Claude-2 für lange Texte, entwickelt von Anthropic, ist ebenfalls ein umfangreiches Sprachmodell. Es wurde auf einer großen Datenmenge aus Text und Code trainiert und kann Texte generieren, Sprachen übersetzen sowie verschiedenste Arten kreativer Inhalte erstellen. Claude-2 ist besonders dafür bekannt, Texte zu erzeugen, die sowohl informativ als auch ansprechend sind.

Tipp 2: Schreibe klare Anweisungen

Der Prompt ist die Eingabe, mit der man das KI-Modell steuert. Umso detaillierter und spezifischer der Prompt, desto besser sind meist die Ergebnisse. Ich verwende gerne verschiedene Formatierungen, um die unterschiedlichen Teile des Prompts voneinander abzugrenzen, wie Überschriften, Gedankenstriche oder Anführungszeichen.

Stelle einen detaillierten Kontext für das Problem bereit. Indem du Mehrdeutigkeiten reduzierst, verringert sich die Wahrscheinlichkeit von irrelevanten oder unkorrekten Antworten.

Verwende Begrenzungszeichen, um verschiedene Teile der Eingabe deutlich zu kennzeichnen. Beispiele dafür sind Abschnittstitel, dreifache Anführungszeichen („““), dreifache Backticks („`), dreifache Bindestriche (—) und spitze Klammern (<>).

Persona und Format: Lege das gewünschte Ausgabeformat oder die Länge der Antwort fest. Eine Methode besteht darin, das Modell aufzufordern, eine Rolle anzunehmen. Beispiele:

  • Stell dir vor, du bist ein professioneller Blogger.
  • Fasse den Text in drei Sätzen zusammen.
  • Gib mir eine Zusammenfassung dieses Textes. Hier sind Beispiele für Zusammenfassungen, die mir gefallen:

Gib Beispiele an. Diese Schritte sind zum Beispiel bei der Few-Shot-Prompting-Methode anzuwenden:

  1. Erstes Beispiel (first „shot“): Gib ein Beispiel für einen Prompt und die entsprechende Antwort.
  2. Zweites Beispiel (second „shot“): Gib ein zweites Beispiel für eine Aufforderung und Antwort.
  3. Dein Prompt: Schreibe deine eigentliche Aufforderung. Das Modell kann nun dem Muster der ersten beiden Beispiele folgen.

Tipp 3: Gib dem Modell Zeit zum Nachdenken

Viele Nutzer erwarten von KI-Modellen, dass diese blitzschnell antworten. Doch je mehr Zeit man dem Modell gibt, seine Antwort zu formulieren, desto durchdachter und korrekter ist diese meist. Eine Möglichkeit ist, das Modell explizit Schritt für Schritt denken zu lassen, also gewissermaßen laut zu formulieren, wie es zu einer Lösung gelangt.

Indem du nach einer logischen Gedankenkette fragst, regst du das Modell dazu an, schrittweise und überlegter zu denken. Du kannst nach einer „Gedankenkette“ fragen oder die spezifischen Schritte definieren. Diese einfache Ergänzung des Prompts funktioniert bekanntermaßen gut: „Denke Schritt für Schritt.

Zum Beispiel, wenn du das Modell bittest, einen Blogpost zu bewerten, könntest du es so anleiten:

  1. Lies den Blogpost sorgfältig durch und verstehe das Hauptthema.
  2. Vergleiche den Inhalt und Stil des Blogposts mit anerkannten Standards guter Blogbeiträge.
  3. Beurteile den Blogpost, indem du sowohl den Inhalt als auch die Ausdrucksweise kritisch bewertest.

Tipp 4: Stelle die Frage mehrmals

Anstatt mich immer nur mit der ersten Antwort zufriedenzugeben, stelle ich wichtige Fragen gerne auch mehrmals, mit leicht veränderten Parametern.

Indem ich etwa die Temperatur oder die Anzahl der Beispiele im Prompt variiere, bekomme ich unter Umständen nuanciertere Ergebnisse. Durch Vergleich der verschiedenen Outputs lässt sich dann die optimale Lösung finden.

Hier sind einige Anpassungsmöglichkeiten:

  • Temperatur: Steuert die Zufälligkeit oder Kreativität der Antwort des LLM. Eine höhere Temperatur führt zu abwechslungsreicheren und kreativeren Antworten. Eine niedrigere Temperatur resultiert in konservativeren, vorhersehbaren Antworten.
  • Benutzerdefinierte Anweisungen: Falls du ChatGPT verwendest, passe die Custom Instructions an.
  • Shots: Bezieht sich auf die Anzahl der Beispiele, die im Prompt gegeben werden. Zero-Shot bedeutet, keine Beispiele zu geben, One-Shot bedeutet, ein Beispiel zu geben, und so weiter.
  • Prompt: Überlege mehrere Varianten. Das Maß an Direktheit, die Anfrage nach Erklärungen, das Ziehen von Vergleichen und Ähnliches.

Tipp 5: Leite das Modell

KI-Modelle neigen dazu, den Nutzer zufriedenstellen zu wollen. Daher muss man sie behutsam in die richtige Richtung lenken.

Wenn mir eine erste Antwort nicht zusagt, kann ich mit Nachfragen das Modell dazu bringen, seine Antwort zu überprüfen und zu korrigieren. Oder ich kann es bitten, Schritt für Schritt das eigene Vorgehen zu erklären, um Fehlerquellen aufzudecken.

Hier sind einige Beispiele:

  • Falls das Dokument zu lang ist, könnte das Modell zu früh aufhören zu lesen. Du kannst das Modell anleiten, lange Dokumente stückweise zu verarbeiten und schrittweise eine vollständige Zusammenfassung zu erstellen.
  • Unterstütze es bei der Selbstkorrektur. Beginnt das Modell fehlerhaft, ist es oft schwierig, sich selbst zu korrigieren. „Du hast mir eine Erklärung über Keyword-Recherche gegeben. Bist du dir bei deiner Antwort sicher? Könntest du sie überprüfen und eine korrigierte Erklärung, beginnend mit den Grundlagen der Keyword-Analyse liefern?“
  • Vermeide Suggestivfragen. Das Modell möchte zufriedenstellen, daher leite es an, aber halte die Aufforderungen offen.
    • ❌ „Ist SEO für Blogger wichtig?“
    • ✅ „Ich hätte gerne einen unvoreingenommenen Überblick über Fallbeispiele zur Beziehung zwischen Bloggen und Suchmaschinenoptimierung.“

Tipp 6: Gliedere die Aufgabe oder Aufforderung auf

Komplexe Aufgabenstellungen bergen eine höhere Fehleranfälligkeit. Daher teile ich diese gerne in mehrere einfache Schritte auf. Entweder bearbeite ich die Teile nacheinander und füttere die Zwischenergebnisse wieder ein, oder ich vergebe für jeden Teilaspekt eine eigene Aufforderung an das Modell. So kommen die Stärken der KI optimal zur Geltung.

Die Absichtsklassifikation ermöglicht es, die relevantesten Anweisungen zu identifizieren und dann die Antworten zu einem stimmigen Gesamtergebnis zu kombinieren.

Zum Beispiel:

  • Ursprüngliche Anfrage: Ich plane einen neuen Blog-Bereich zum Thema „Prompt Engineering“ und benötige dafür die wichtigsten Keywords und eine Liste mit 20 Artikelideen.
  • Aufgliederung der Anfrage:
    • Schritt 1: Recherchiere die wichtigsten Artikel zum Thema „Prompt Engineering“.
    • Schritt 2: Erstelle eine Tabelle mit den wichtigsten Keywords.
    • Schritt 3: Liste 20 Artikelideen anhand der Keywords auf.

Die KI würde sich jeder Absicht einzeln widmen und maßgeschneiderte Ratschläge geben, um diese dann zu einer umfassenden Antwort zu vereinen.

Tipp 7: Nutze die verfügbaren Techniken

KI-Modelle haben Grenzen, die sich mit ergänzenden Tools ausgleichen lassen. Für mathematische Berechnungen integriere ich einen Calculator, für Recherchen ein Retrieval-System. Auch die Einbindung von APIs und externen Funktionen kann die Fähigkeiten des Modells erweitern. Kombiniert man so die Stärken verschiedener Systeme, lassen sich beeindruckende Anwendungen entwickeln.

Hier sind einige beispielhafte Werkzeuge:

  • Rechner: LLMs sind nicht gut in Mathematik. Ihre Hauptaufgabe ist es, Wörter zu generieren, nicht Zahlen. Rechner können die mathematischen Fähigkeiten eines LLMs deutlich verbessern.
  • RAG: Verbinde das LLM mit intelligenten Informationsabrufsystemen, anstatt zu versuchen, alles in das Kontextfenster zu zwängen. Etwa die Web-Such-API von Metaphor.
  • Codeausführung: Nutze die Möglichkeit der Codeausführung oder rufe externe APIs auf, um vom Modell erstellten Code auszuführen und zu testen.
  • Funktionen: Definiere Funktionen, die das Modell aufrufen soll. Beispiele hierfür sind get_keywords(), write_intro() oder fetch_wp_api(). Führe diese Funktionen aus und gib die Antwort an das Modell zurück.

Falls du dich fragst, welche AI-Tools ich täglich nutze, möchte ich noch kurz darüber schreiben.

Aktuell nutze ich hauptsächlich GPT-4 direkt über ChatGPT Plus oder HARPA. Für längere Texte greife ich gerne auf Claude-2 zurück.

Tools wie Jasper oder Neuroflash nutze ich immer weniger.

Referenzen:

Wie man sieht, erfordert gutes Prompt Engineering viel Erfahrung und ein Gespür dafür, wie KI-Modelle ticken. Doch mit den richtigen Techniken lässt sich die Leistung der Systeme enorm steigern.

Ich hoffe, diese Tipps zum Prompt erstellen aus meiner täglichen Arbeit helfen dabei, noch bessere Prompts zu schreiben und die Potenziale dieser faszinierenden Technologie optimal auszuschöpfen.

Über konstruktives Feedback würde ich mich sehr freuen!

👉 So geht es weiter

  • Experimentiere mit verschiedenen KI-Modellen, um zu sehen, welches am besten zu deinem spezifischen Anwendungsfall passt.
  • Nutze die Tipps aus diesem Artikel, um deine eigenen Prompts zu schreiben und zu verfeinern.
  • Teile deine Erfahrungen und erzielten Ergebnisse in den Kommentaren oder in einem eigenen Blogbeitrag, um anderen in der Community zu helfen.

Offenlegung Werbelinks: Mit einem Stern (*) gekennzeichnete Links und Buttons sind sogenannte Affiliate-Links. BloggerPilot bekommt bei einem Kauf eine Provision, die sich jedoch nicht auf den Endpreis auswirkt. Es ist uns wichtig zu betonen, dass dies keinen Einfluss auf unsere Bewertung oder Meinung hat.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert