Angemeldet bleiben
Passwort vergessen?
Jetzt registrieren!
logo
  • OMT-SUMMIT
  • Events
    • OMT 2025
      Online Marketing Wissen auf das nächste Level heben!
    • OMT-Toolkonferenz
      Die kostenfreie Toolkonferenz für Toolanbieter
    • OMT-Agency Day
      Der Treffpunkt für Agenturinhaber:innen
    • OMT KI-Konferenz
      Digital-Konferenz für Entscheider und Anwender
    • OMT-Clubtreffen
      Clubtreffen in vielen Städten der DACH-Region
    • Eventrezensionen
      Die wichtigsten Konferenzen 2025 mit Rezensionen
  • Lernen
    • Seminare
      Unsere Seminare für Entscheider:innen und Praktiker:innen
      • B2B SEO Seminar
      • E-Commerce SEO Seminar
      • Leadgenerierung im digitalen Zeitalter
      • KI in der Praxis: Erfolgsstrategien für den Mittelstand – Kostenloses Infomaterial
      • Online Marketing Strategie Seminar
      • SEO Seminar
      • SEO Seminar für Fortgeschrittene
      • SEO Seminar für Management
      • Strategisches CRM- & Lead-Management als Wachstumstreiber
      • Weitere Inhouse-Seminare >
    • Magazin
      Online Marketing Artikel von Experten
    • Webinare
      Kostenlose Online Marketing Webinare: Termine & Mediathek
      • SISTRIX Website Clinic
      • FRIDAY Insights
      • Affiliate Marketing Webinare
      • Content Marketing Webinare
      • Facebook Ads Webinare
      • Google Ads Webinare
      • Google Analytics Webinare
      • SEO Webinare
      • Social Media Webinare
    • Podcast
      Geballtes Online Marketing Wissen für die Ohren
      • E-Mail Marketing Podcasts
      • Google Ads Podcasts
      • Inbound Marketing Podcasts
      • Influencer Marketing Podcasts
      • Marketing Podcasts
      • Performance Marketing Podcasts
      • Suchmaschinenmarketing Podcasts
      • Social Media Podcasts
      • SEO Podcasts
    • Speaker Academy
      Der Speaker Workshop mit Bane Katic
    • Sales Academy
      Vertriebstraining mit Bane Katic & Mario Jung
  • Downloads
    • Templates
      Kostenlose Templates & Vorlagen
      • YouTube Templates
      • LinkedIn Templates
      • Instagram Templates
      • E-Mail Templates
    • eBooks
      Große Auswahl an kostenfreien Ebooks
    • (Print-)Magazin
      Alle OMT-Magazinausgaben zum Download
    • Leadmagneten
      Auswahl aller OMT-Leadmagnenten
    • Studentenarbeiten
      Studentenarbeiten zum Thema Online Marketing
    • Toolvergleiche
      Kostenfreie Tool- und Softwarevergleiche
  • Services
    • Freelancervermittlung
      Finde die passenden Freelancer für Dein Projekt
    • SEO Check
      Kostenlose Quick-Analyse Deiner Website
    • Engagement-Studie
      Starte in 2024 mit mehr Effektivität
  • Tools
  • Agenturfinder
Club-Login

    Inhaltsverzeichnis:

  • Teil 1: Was ist ein Prompt? Definition und Fallbeispiel
  • Teil 2: Den Output optimieren
  • Teil 3: Muster in der Prompt Creation verwenden
  • Teil 4: Wie Du Prompts in der Creation präzisierst
  • Teil 5: Breaking the Pattern: Wie Du einzigartigen Output kreierst
  • Teil 6: Dein Prompt existiert außerhalb des Large Language Modells
  • Fazit: 5 Schlüsselfaktoren für die Prompt Creation

Hol mit Prompt Creation mehr aus Deinen Texten heraus: immer im Dialog

Lesezeit: 16 Min | Autor: Maren Dinges

Teile den Artikel
URL kopiert!

eBook : Content Marketing Ziele

Erfahre, welche und wie viele Ziele sinnvoll sind

Kostenlos donwloaden
Hol mit Prompt Creation mehr aus Deinen Texten heraus: immer im Dialog

© rokas91/ depositphotos.com

Wie möchtest Du den Artikel konsumieren?

Wirkungsvolle Texte schreiben wir nicht mehr allein. Large Language Models (LLM) wie ChatGPT entwickeln sich zu festen Teammitgliedern, die alle Prozessstufen im Marketing begleiten. Statt selbst zu schreiben, prompten Copywriter:innen.

Es ist der Skill des neuen Internet-Zeitalters, der Pionierstatus besitzt und sich gleichzeitig zu einer nicht erwähnenswerten Fähigkeit entwickelt. Setzen sich Large Language Models wie erwartet flächendeckend durch, ist das Prompting mit dem Status des Schreibens gleichzusetzen:

Wir alle müssen es beherrschen. Nicht nur Marketer:innen, sondern auch Kindergärtner:innen, Lehrer:innen oder Ingenieur:innen.

Denn LLMs können viel mehr als einfach nur Texte verfassen. Sie analysieren Zielgruppen, präzisieren Aufgaben, stellen eigene Werke kritisch infrage, liefern Content-Ideen und bereiten den Input ganzheitlich auf. All das mit dem Ziel, den Output außerhalb der Software verwenden zu können.

Sprich: Kindergärtner:innen lassen von ChatGPT künftig Verhaltensanalysen und Beobachtungsprotokolle erstellen, Lehrer:innen planen ihren Unterricht und Ingenieur:innen erstellen ganze Prototypen mit den Modellen.

Text ist somit nicht gleich Text.

Prompt Creation - Bild 1

Definition des Begriffs Prompt Creation in ChatGPT.

In LLMs erledigst Du so gut wie jeden Task: Deine nächste Reiseplanung, Marketing Kampagnen, Q&As auf der Webseite, individualisierte Verkaufsmenüs im E-Commerce-Shop, ein auf Ton basierendes Interview oder ganze Datenbanksysteme. All das ist Text.

Was ein Prompt ist, wie Dir die Prompt Creation für Texte gelingt und wie Du Prompts effektiv für das Marketing einsetzt, erfährst Du in diesem Artikel Schritt für Schritt.

Tauchen wir also ein in die Welt der Prompt Creation!

NEU ❗ OMT-Magazin - Ausgabe #24 - JETZT HERUNTERLADEN
Die neuste OMT-Ausgabe jetzt exklusiv
NEU ❗ OMT-Magazin - Ausgabe #24 - JETZT HERUNTERLADEN

94 Seiten geballtes Online Marketing-Wissen ❗ 12 Experten beteiligt ✓ SEO ✓ E-Mail Marketing ✓ E-Commerce ✓ uvm.

Jetzt kostenfrei herunterladen!

Teil 1: Was ist ein Prompt? Definition und Fallbeispiel

Um einen Prompt zu kreieren, müssen wir diesen erst einmal definieren. Ein Prompt ist immer ein Input in Form einer ersten Idee für das LLM. Also das, was Du in ein LLM einträgst. Mit jedem Prompt programmierst Du das LLM so, dass es Dir den passenden Output liefert.

Jeder Prompt ist auch eine Anweisung. Du definierst Regeln oder automatisierst den Output.

Kurz gesagt: Du bestimmst anhand der im Prompt enthaltenen Informationen, die Quantität, aber auch Qualität des Ergebnisses (Quelle: Jules White et. al.)

Informationen sind beim Prompting immer kontextgebunden. Was bedeutet das für die Creation?

❎ Statt zu prompten:

Schreibe mir einen Text über den Klimawandel.

✅ Prompte lieber:

Agiere mit dem Wissen eines Klimaexperten und dem Sprachgeschick eines Copywriters mit Schwerpunkt auf Reportagen. Schreibe eine für sich stehende Rede über den Klimawandel, der sich an alle Stakeholder richtet, nachdenklich machen soll, aber auch zum Handeln anspornt. Sei kritisch.

Prompt Creation - Bild 2

Generierter Output einer Rede von ChatGPT auf Basis eines Prompts.

In kürzesten Aussagen sind Informationen in höchster Dichte für LLMs kontextuell gebunden. Dröseln wir diese auf:

  • Information: Alle Informationen des Texts beziehen sich auf die Rolle, die das LLM einnimmt. Es agiert in der Rolle als Klimaexperte bzw. Klimaexpertin.
  • Wording und Stil: Die Ausgabe orientiert sich am Sprachgeschick eines Copywriters bzw. einer Copywriterin. Elemente des Storytellings, aber auch Metaphern, blumige Aussprachen und Symboliken können erkannt werden.
  • Format: Wie der textliche Output erfolgt, zeigt das Format an. In diesem Fall hat der Prompt das LLM angewiesen, eine Rede zu konzipieren.
  • Zielgruppe: Der Output verändert sich je nach eingegebener Zielgruppe. Die Zielgruppe bildet sich aus allen Stakeholdern.
  • Motivation: Welches Wording der Output besitzt, entscheidet der Prompt. Das LLM wurde angewiesen, kritisch und gleichzeitig auffordernd zu formulieren.
Wie Künstliche Intelligenz (KI) das Copywriting revolutioniert

Wie Künstliche Intelligenz (KI) das Copywriting revolutioniert

Ganz gleich, ob wir unser Handy mithilfe von Gesichtserkennung entsperren, die Lampen Zuhause per Sprachbefehl bedienen oder uns beim Autofahren Funktionen wie Abstandsregler, Notbremsassistenten und automatische Verkehrsschild-Erkennung zunutze machen – künstliche Intelligenz ist schon heute in vielfältiger Art und Weise ein fester Bestandteil unseres Alltags geworden und erleichtert uns zahlreiche Aufgaben.

Eine der entscheidenden Technologien und Trends der Digitalisierung, das steht außer Frage. Was einst noch eine zukunftsferne Vision war, verändert unser Leben bereits heute nachhaltig.

Zum Artikel!

Teil 2: Den Output optimieren

Der erste Output ist selten qualitativ. Diese Form des Soft Promptings besitzt eine Reihe an Limitationen. Unter anderem ist je nach LLM ohne weitere Angaben keine Gewichtung der Informationen möglich.

So lässt sich für das LLM schwer einordnen, ob es für Dich nun wichtiger ist, bei einem Text über Prompt Creation über „Prompting“ oder „Creation“ zu schreiben.

Es geht dann von der höchsten Wahrscheinlichkeit aus. Denn genau so funktionieren LLMs: Jeder Output basiert auf Tokens. Jedes Wort eines Satzes wählt das LLM also auf Basis der höchsten Wahrscheinlichkeit aus.

Lautet der Prompt: „Sein oder nicht sein“ berechnet das LLM, was am Ehesten zur Anfrage passt.

Das Ergebnis:

Prompt Creation - Bild 3

Die Antwort von ChatGPT auf den Prompt „Sein oder nicht sein“.

Wie LLMs Tokens berechnen, ist nicht pauschalisiert. Meist ist es jedoch so, dass die Tokens die Anzahl an Wörtern überwiegen. So entstehen aus dem Wort „Edutainment“ zwei Token [Edu;Tainment]. Nicht nur der Output ist von Tokens beeinflusst, sondern auch der Input.

Beim Prompting bist Du in allen LLMs auf eine bestimmte Anzahl Tokens begrenzt.

Prompt Creation - Bild 4

Informationen zur Limitation der Tokens pro Prompt bei ChatGPT.

Das führt bei komplexen Prompts bereits dazu, dass sich Anforderungen nicht innerhalb eines Prompts abbilden lassen.

Auch ist es bei einer Vielzahl von Creatives nicht möglich, das erwartete Ergebnis nur durch die Eingabe eines Prompts zu erhalten (Quelle: Cambridge University).

Hierfür benötigt es wiederkehrende Muster, repetitive Anforderungen – eine logische Semantik, der das LLM blind folgen kann. Ist diese nicht vorhanden, steuerst Du den Output durch kritisches Hinterfragen.

Teil der Prompt Creation ist somit immer die Qualitätskontrolle.

Vergiss also nicht in den Dialog mit dem LLM zu gehen, um den Output zu verbessern.

Das gelingt in zwei Richtungen:

  1. Fordere das Large Language Modell dazu auf, erst alle notwendigen Rückfragen zu stellen, bevor es den Output liefert.
    Der Output nach allen beantworteten Fragen:

    Prompt Creation - Bild 5

    Verbesserter Rede von ChatGPT über den Klimawandel, nachdem das LLM alle Informationen eingeholt hat, was es benötigte, um die Anfrage zu beantworten.

  2. Gib Feedback auf den Output und bitte das Large Language Modell ihn basierend auf dem Feedback umzuschreiben.
    Der Output nach der Kritik (dass die eigene Rolle Bestandteil der Rede war und der Fokus mehr auf die Dringlichkeit des Handelns hinweisen soll):

    Prompt Creation - Bild 6

    Verbesserte Rede von ChatGPT über den Klimawandel, nachdem Feedback auf den ersten Output gegeben wurde.

💡 Dein Learning: Je mehr Du in den Dialog mit LLMs gehst, desto qualitativer ist auch der Output. Du steuerst ihn in der Creation. Die Prompt Creation beinhaltet selten nur den ersten eingegebenen Prompt. Sie beinhaltet auch jegliche Form des Dialogs mit dem LLM.

Exkurs: Chained Prompting

Dieses Wissen unterstützt dabei, die gesamte Ideation- und Creation-Phase für Content innerhalb eines LLMs umzusetzen. Mittels Chained Prompting schreibst Du beispielsweise einen Text qualitativ und im Austausch mit dem LLM.

Bedienen wir uns hierfür wieder dem oberen Beispiel. Du hast das LLM gebeten, einen Text über den Klimawandel in Form einer Rede zu schreiben. Nachdem Du dem LLM bereits Feedback auf den Text gegeben hast, ist die Creation Phase zunächst für Dich abgeschlossen.

Nun erweiterst Du den Content-Prozess durch das Redigieren. Durch Prompts wie

  • Lösche Füllwörter wie …
  • Ergänze Informationen zu …
  • Verdichte die Informationen in Sätzen, indem Du …
  • Verändere das Content-Format in …
  • Wähle eine andere Ansprache …
  • Verzichte auf Aussagen wie …

entstehen Argumentationsketten, die den Text weiter und weiter verändern. Je nachdem, wie weit Du die Argumentationskette treibst, können ganz neue Inhalte daraus entstehen.

Aus einer Rede hast Du es durch diese Methode beispielsweise geschafft, einen LinkedIn-Beitrag oder ein Videoskript zu erstellen. Transformation ist durch Weiterangabe von Befehlen somit sowohl innerhalb eines Formats, aber auch barrierefrei möglich.

Teil 3: Muster in der Prompt Creation verwenden

Mit jedem Prompt programmierst Du den Output. Wiederholst Du eine bestimmte Anweisung immer und immer wieder, entsteht ein logisches Muster, dem das LLM folgt. Muster vereinfachen für Large Language Modells den Output Deiner Erwartung anzupassen. Dies ist auf die erhöhte Wahrscheinlichkeit des korrekten Outputs zurückzuführen.

Was zunächst sehr komplex klingt, vereinfacht tatsächlich die Creation für Dich. Wenn Du es schaffst, Dein Wissen in ein Muster zu übertragen, kodierst Du die Informationen.

Das ermöglicht dem LLM, das Muster auf weitere Kontexte, aber auch Formate zu übertragen. Das LLM ist plötzlich in der Lage, eine Transferaufgabe zu lösen.

Solche Muster kannst Du entweder selbst durch Eingabe von Prompts programmieren oder Du bedienst Dich jener, die bereits vorhanden sind.

Das sind die bekanntesten Muster, die Du für Deine Prompt Creation nutzen kannst (Quelle: Jules White et al.):

Meta Language Creation
Persona Muster
Refine Muster
Umgekehrte Interaktion
Fact-Check-List-Muster

➡️ Meta Language Creation: Prompting einer benutzerdefinierten Sprache

Prompt Creation - Bild 7

Eingabe und generierter Output im Rahmen der Meta Language Creation in ChatGPT.

💡 Mit diesem Muster legst Du die Interpretation von Parametern fest. Diese muss immer eindeutig sein.


➡️ Persona Muster: Dem LLM eine bestimmte Benutzerrolle zuordnen

Prompt Creation - Bild 8

Eingabe und generierter Output unter Verwendung des Persona Patterns in ChatGPT.

💡 Das LLM liefert den Output so, wie die vergebene Rolle es tun würde


➡️ Refine Muster: Der Prompt fordert das LLM dazu auf, immer einen besseren Prompt zu entwickeln.

Prompt Creation - Bild 9

Eingabe und generierter Output unter Verwendung des Refine Musters in ChatGPT.

💡 Die LLM wird zum Lehrenden und zeigt Dir, wie Du effizienter promptest und so bessere Ergebnisse erzielst.


➡️ Umgekehrte Interaktion: Lasse LLMs durch Prompting zum Fragesteller werden

Prompt Creation - Bild 10

Eingabe und generierter Output im Rahmen der umgekehrten Interaktion in ChatGPT.

💡 Der Output wird durch neue Möglichkeiten wie Gameplay, aber auch neues Wissen ergänzt.


➡️ Fact-Check-List-Muster: Das LLM erstellt eine Reihe an Fragen, von denen die Ausgabe abhängt.

Prompt Creation - Bild 11

Eingabe und generierter Output unter Verwendung des Fact Check-List-Musters in ChatGPT.

💡 Das LLM übernimmt Teile der Qualitätskontrolle.

Exkurs: Soft Prompting mit Vorlagen

Für wenige Anwendungsfälle kann das Soft Prompting im One-Shot-Verfahren ausreichen. Wenn Du Large Language Modells eine Vorlage für den Output gibst, erstellt das LLM den Output analog.

Damit die Prompt Creation im One-Shot-Verfahren gelingt, ist die Komplexität so gering zu halten wie möglich. Gleichzeitig müssen alle Informationen kontextgebunden vorliegen.

Ein Prompt für das One-Shot-Verfahren wäre:

Prompt Creation - Bild 12

Beispielanweisung für die Verwendung eines One-Shot-Prompts.

Du gibst im One-Shot-Verfahren dem LLM ein eindeutiges Rezept vor, nachdem es vorgeht. Du bedienst Dich somit der Fähigkeit des LLMs, Muster zu erkennen und diesen Schritt für Schritt zu folgen. Alle Informationen in eckigen Klammern bieten Raum für erweiterte Informationen.

Diese kannst Du direkt in Deinen One-Shot-Prompt inkludieren. Sollten die Tokens aufgrund der Datendichte nicht ausreichen, bietet sich das Few-Shot-Verfahren an.

In diesem Fall hältst Du den ersten Prompt noch unspezifisch und stellst erst im Laufe der Konversation alle Inhalte pro Klammer bereit.

Hier sind einige Beispiele, wie Du LLMs innerhalb von Klammern Anweisungen gibst:

Prompt Creation - Bild 13

Beispiele für die Verwendung von Klammern für die Angabe selektierter Informationen in ChatGPT.

KI-Mythen: Die 7 größten Irrtümer über ChatGPT vom Experten aufgeklärt

KI-Mythen: Die 7 größten Irrtümer über ChatGPT vom Experten aufgeklärt

Die Begeisterung für ChatGPT hat in den letzten Monaten beispiellose Ausmaße erreicht und zählt zu den größten technologischen Hypes unserer Zeit.

Als revolutionärer Chatbot ermöglicht ChatGPT erstmals die einfache Kommunikation mit einer künstlichen Intelligenz und die beeindruckende Zahl von 100 Millionen Nutzer:innen innerhalb der ersten zwei Monate nach Veröffentlichung durch OpenAI spricht für sich.

Dennoch bringt dieser Erfolg auch eine Flut an Fehlinformationen und unsinnigen Aussagen mit sich.

Jetzt lesen!

Teil 4: Wie Du Prompts in der Creation präzisierst

Verstehen wir Prompting als Training, gibt es mehrere Möglichkeiten, um durch einfaches Lernen die Prompts zu verbessern. Auch das LLM trainiert stetig. Mit jeder neuen Dateneingabe verbessert sich der Output.

Trotz dessen, dass LLMs wie ChatGPT mittlerweile auch Zugang zu Daten im Internet bieten (zumindest in der Betaversion) wurden sie vorwiegend auf englischen Daten trainiert.

Gleichzeitig hilft uns das Wissen, dass LLMs auf Basis von Wahrscheinlichkeiten Output generieren, dass wir durch die Verwendung von Mustern den Output verbessern.

Die folgenden Punkte dienen Dir als Cheat-Sheet für Deine nächste Prompt Creation:

  • Wechsel die Sprache Deines Prompts, um den Output zu verändern und auf alternative Daten zurückzugreifen.
  • Teile mit LLMs Vorlagen und Referenzen, wie Du Dir den Output vorstellst. Via Plugins gelingt das auch in Form von Dokumenten wie PDFs.
  • Unterteile Vorlagen und Anweisungen durch Zeichen (Vorlage##Anweisung##Frage an das LLM).
  • Trenne Aussagen durch Kommata (lockere Tonalität, 1000 Wörter, Zielgruppe Marketer).
  • Nutze Trennzeichen wie XML-Tags, um Aussagen für das LLM hervorzuheben.
  • Setze auf Scoring-Modelle, um dem LLM eine Gewichtung vorzugeben.
  • Definiere die Zielsprache (übersetze den Prompt in ein Python-Skript).
  • Definiere das Format (Tabellarische Darstellung, Code, Text, Bild, Video …).

Teil 5: Breaking the Pattern: Wie Du einzigartigen Output kreierst

Da Large Language Modells sich an Mustern trainieren, wirkt der generierte Output hin und wieder generisch oder entspricht nicht Deiner Erwartung. Jetzt ist es an der Zeit, Outside-the-Box zu denken. Dabei gilt es sich daran zu erinnern, dass Kommunikation nicht nur eine Ebene besitzt.

Funktionieren die Muster nicht, um das eigene Problem zu lösen, musst Du diese brechen. Hierfür gibt es viele Wege.

Prompt Creation - Bild 14

Limitationen von ChatGPT.

Zwei kommen am häufigsten vor:

1. Gib der LLM Informationen, die sie noch nicht besitzt.
2. Lasse Dich von der LLM anleiten.

1. Das Large Language Modell mit Informationen füttern

LLMs werden mit einer Fülle an Daten trainiert. Gerade sensible Daten wie Unternehmensdaten, persönliche Charakteristiken oder Dein Gedankengut kennt das LLM nicht. Um passenden Output zu erzeugen, fütterst Du das LLM mit diesen an.

Innerhalb eines Chats mit dem LLM kannst Du jederzeit neue Informationen hinzufügen, die das Ergebnis beeinflussen. Bei einer großen Fülle an Daten zieht dies im Zweifel hohe Kosten nach sich, wenn die LLM-Budgetierung nach Tokens erfolgt.

Prompt Creation - Bild 15

Hinzufügen von neuen Informationen, damit ChatGPT die Anfrage beantworten kann.

Was Du tun kannst, um vorab Daten zu selektieren, die wichtig für die Ausgabe sind?

  • Nur spezifische Dokumente an das LLM übergeben
  • Daten nach Relevanz mit Dritt-Tools sortieren
  • Dem LLM Vorlagen erstellen, wie es den Output liefern soll

Beachte bei der Dateneingabe immer die Sensibilität von Daten. Wie die LLM die Daten verwendet, ist häufig unklar. Die Datenschutzkriterien sollten somit auch beim Prompting beachtet werden.

Die Eingabe von erweiterten Informationen ist immer empfehlenswert, um den Output gezielter und auf Basis aller notwendiger Daten zu steuern. Zusätzlich empfiehlt sich ein solcher Ansatz, um eigene Creatives zu optimieren.

💡 Praxisimpuls: Kopiere doch einfach mal den nächsten Text von Dir in ein LLM und lasse ihn auf Grammatik, Sinnhaftigkeit, Füllwörter oder auf das Zielgruppenverständnis überprüfen.

KI-Textgenerator – Die bekanntesten Anbieter im Vergleich

KI-Textgenerator – Die bekanntesten Anbieter im Vergleich

Mithilfe unterschiedlicher Filter, User-Bewertungen und der Meinung der OMT-Club-Mitglieder helfen wir Dir die Entscheidung für den richtigen KI-Textgenerator zu vereinfachen.

Jetzt zum Tool-Vergleich!

2. Das LLM wird zum Coach

Wolltest Du schon einmal eine Rakete bauen, weißt aber nicht, wie es funktioniert?

Eine Webseite erstellen, aber weißt nicht, was ein CMS ist?

Ein Social-Media-Reporting erstellen, aber Du hast es noch nie gemacht?

Prompt Creation - Bild 16

Prompt Creation, um ChatGPT in einer Beratungsfunktion zu nutzen.

Dann kann das LLM noch heute Deine Weiterbildung übernehmen. Mit Deinen Prompts bringst Du das LLM dazu, Dein Problem zu lösen und Dich Schritt für Schritt an die Aufgabe heranzuführen.

Wenn Du besonders gut promptest, zeigt Dir das LLM nicht nur den Lösungsweg auf, sondern unterstützt auch mit Hilfestellungen oder gibt Dir im Anschluss die gesamte Lösung aus.

Prompt Creation - Bild 17

Ausgabe eines Redaktionsplans von ChatGPT.

In unserem Beispiel zeigt das LLM nicht nur, wie wir einen Redaktionsplan aufbauen, sondern bietet auch eine Vorlage und gibt Hinweise dazu, in welchem Tool wir diesen am besten aufbauen können.

Die Anfrage würde sich durch Prompting nun noch weiter anpassen lassen, um auch im Redaktionsplan alle gewünschten KPIs und Informationen hinterlegt zu haben.

Fang hier also gerne an zu experimentieren und lerne jeden Tag kostenlos dazu.

LLMs stehen Dir als Coach 24/7 zur Verfügung. Das kannst Du für jede Frage und jedes Problem nutzen.

Teil 6: Dein Prompt existiert außerhalb des Large Language Modells

Das übergeordnete Ziel des Promptings ist es, Outputs zu erschaffen, die auch außerhalb des LLMs funktionieren. Redaktionspläne wie im Beispiel zuvor lassen sich aus dem Programm heraus exportieren und in genannten Tools wie Excel oder Google Sheets nutzen.

Du kannst größer denken. LLMs sind Sprachjongleure und beherrschen jede Sprache, die Du Dir vorstellen kannst. Der größte Trumpf in der Hand: LLMs beherrschen Programmiersprachen aus dem Effeff.

Warum also nicht einen Redaktionsplan erstellen, der automatisiert Input liefert, sich mit Datenbanken verknüpft und sich so selbst pflegt?

Warum nicht ein Quiz für die eigene Webseite erstellen?

Prompt Creation - Bild 18

Ausgabe eines Redaktionsplans in Form eines Python-Codes in ChatGPT.

Erstellte Codes in LLMs lassen sich kopieren und so in Drittprogramme einarbeiten. Dabei gehen LLMs gewissenhaft vor und informieren darüber, dass der gegebene Code wahrscheinlich nicht meinen Anforderungen genügt.

Wir sehen anhand dieses Beispiels aber, dass LLMs mehr als nur Text und Grafiken kreieren können. Sie können ganze Welten kreieren. Durch Verfeinerung des Prompts gelingt dann auch die Codierung eines benutzerspezifischen Skripts.

Herzlichen Glückwunsch, Du hast erfolgreich einen Prompt kreiert, der neue Welten außerhalb des LLMs erschlossen hat.

Künstliche Intelligenz und Produktbilder – Eine Schritt für Schritt Anleitung
kostenfreies Webinar
Künstliche Intelligenz und Produktbilder — Mohamad AL-Hakim

Mohamad wird genau und detailliert aufzeigen, wie die künstliche Intelligenz zur Hilfe herangezogen werden kann, um die eigene Produktbilder auf höherem Niveau zu bringen. Er wird ChatGPT und Midjourney zur Hilfe nehm...

Gratis anschauen

Fazit: 5 Schlüsselfaktoren für die Prompt Creation

Mit jeder neuen Prompt Creation befindest Du Dich erneut auf einem grünen Feld, auf dem alles möglich ist. Beim Prompting kannst Du Dich sowohl auf Muster stützen oder diese durchbrechen, Anweisungen an das LLM geben oder es Dich leiten lassen.

Wichtig ist es, offen für Neues zu bleiben und ohne Limitationen bei der Prompt Creation zu denken. So gelingt es Dir, Prompts zu kreieren, die außerhalb eines LLMs funktionieren und echte Mehrwerte bieten.

🔑 Prompts sind das Briefing an die KI
🔑 Prompts sind immer kontextgebunden
🔑 Prompts sind repetitiv
🔑 Prompts beinhalten alle notwendigen Informationen
🔑 Prompts sollen Output kreieren, der außerhalb der LLMs funktioniert

omt logo

Diesen Artikel jetzt als Podcast anhören

Jetzt anhören auf: Spotify | Apple Podcast | Google Podcast

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Inhalt entsperren Erforderlichen Service akzeptieren und Inhalte entsperren
Teile den Artikel
Wie ist Deine Meinung zu dem Thema? Wir freuen uns über Deinen

Diesen Artikel bewerten

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (Noch keine Bewertungen)

Willst Du im Online Marketing besser werden?

Mit unserem Newsletter schicken wir Dir regelmäßig unsere neusten Webinare und Magazinartikel zu den unterschiedlichen Online Marketing Themen. Mehr als 10.000 Abonnenten nutzen es bereits!

Sie sehen gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Inhalt entsperren Erforderlichen Service akzeptieren und Inhalte entsperren
Mehr Informationen

Maren Dinges

Maren Dinges

Emotionen sind Teil der Sprache: Mit diesem Gedanken im Hinterkopf begleitet Maren Dinges Text- und Videoprojekte kreativ und analytisch.

Der Mix aus kreativem Storytelling und analytischer Suchmaschinenoptimierung macht die Contenterstellung zu einer strategischen Aufgabe. Der Erfolgsfaktor hinter jeder kreativen Story? Das innere Kind schreien lassen.

Weitere interessante Artikel zum Thema:

Social Signals: Wie Du die Kraft der Interaktion für Deine Online-Marketing-Strategie nutzt OMT Magazin

Social Signals: Wie Du die Kraft der Interaktion für Deine Online-Mar... Online Marketing

Dr. Beatrice Eiring 12 Min

Social Signals: Der unterschätzte Faktor im Online-Marketing Social Signals sind ein essenzieller, aber oft unterschätzter Bestandteil einer erfolgreichen Online-Marketing-Strategie. Ihre ...
Hyperpersonalisierung: Wie Unternehmen Kundenwünsche antizipieren, bevor sie entstehen OMT Magazin

Hyperpersonalisierung: Wie Unternehmen Kundenwünsche antizipieren, be...

Online Marketing

Sören Stamer 10 Min

Datenschutz im Online-Marketing OMT Magazin

Datenschutz im Online-Marketing

Online Marketing

Maryse Pahlke 17 Min

Digitale Kundenbindungsprogramme und POS-Integration im B2B-Marketing OMT Magazin

Digitale Kundenbindungsprogramme und POS-Integration im B2B-Marketing

Online Marketing

Nicole Schlenz 6 Min

Abonnieren
Benachrichtige mich bei
guest
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
https://www.reachx.de https://www.pure-host.de/ https://de.depositphotos.com/
Du bist hier: 
  • Home
  • »
  • Online Marketing
  • »
  • Hol mit Prompt Creation mehr aus Deinen Texten heraus: immer im Dialog

Alles über…

  • Affiliate Marketing
  • Amazon Marketing
  • Amazon SEO
  • Content Marketing
  • Conversion Optimierung
  • Digital Marketing
  • Direktmarketing
  • E-Commerce
  • E-Mail-Marketing
  • Facebook Ads
  • Google Analytics
  • Google Ads (SEA)
  • Google My Business
  • Growth Hacking
  • Inbound Marketing
  • Influencer Marketing
  • Internet Marketing
  • Linkbuilding
  • LinkedIn Ads
  • Local SEO
  • Marketing
  • Online Marketing
  • Performance Marketing
  • Pinterest Marketing
  • Podcast Marketing
  • Public Relations (PR)
  • Social Media Marketing
  • Suchmaschinenmarketing (SEM)
  • Suchmaschinenoptimierung
  • TikTok Marketing
  • Video-Marketing
  • Webanalyse
  • Webdesign
  • WordPress

Sonstiges

  • OMT 2025
  • Toolkonferenz 2025
  • Agency Day 2025
  • OMT-Clubtreffen
  • Speaker Academy
  • Sales Academy
  • SEO Check
  • Download-Center
  • kostenfreie Online Marketing-Ebooks
  • Studentenarbeiten
  • Templates
  • Online Marketing Trends 2024
  • Alle Experten des OMT
  • OMT-Gehaltsumfrage
  • OMT-Club
  • OMT-Lexikon
  • Das OMT-Team
  • Jobs-Portal
  • Karriere beim OMT
  • Talentpool
  • Online Marketing Jobs
  • OMT-Botschafter
  • Newsletter

Rechtliches

  • AGB
  • Datenschutzerklärung
  • Impressum

OMT GmbH

Feldstraße 7
65719 Hofheim am Taunus
tel:06192 - 9626152
[email protected]
t

OMT-Bewertungen

https://www.omt.de/uploads/2021/01/OMT-Social-Bewertungen.png https://www.omt.de/uploads/2018/12/OMT-Google-Bewertungen-NEU-191223.jpg https://www.omt.de/uploads/2018/12/OMT-Facebook-Bewertungen-NEU-191223.jpg
wpDiscuz
0
0
Interessanter Artikel? Wir freuen uns über Deinen Kommentarx
()
x
| Antworten