Angemeldet bleiben
Passwort vergessen?
Jetzt registrieren!
logo
  • OMT-SUMMIT
  • Events
    • OMT 2025
      Online Marketing Wissen auf das nächste Level heben!
    • OMT-Toolkonferenz
      Die kostenfreie Toolkonferenz für Toolanbieter
    • Agency Day
      Der Treffpunkt für Agenturinhaber
    • OMT KI-Konferenz
      Digital-Konferenz für Entscheider und Anwender
    • OMT-Clubtreffen
      Clubtreffen in vielen Städten der DACH-Region
    • Eventrezensionen
      Die wichtigsten Konferenzen 2025 mit Rezensionen
  • Lernen
    • Seminare
      Lerne von den Besten mit unseren Hybrid-Seminaren
      • Advanced Content Marketing Seminar
      • Amazon DSP Seminar
      • Amazon Marketing Basics Seminar
      • Amazon PPC Seminar
      • Amazon Seminar
      • Amazon SEO Seminar
      • B2B SEO Seminar
      • Copywriting Seminar
      • E-Commerce SEO Seminar
      • Facebook und Instagram Ads Seminar
      • Gendergerechte Sprache Seminar
      • Google Ads Seminar
      • Google Analytics Seminar
      • Google Search Console Seminar
      • KI Seminar
      • KNIME Seminar
      • Leadgenerierung im digitalen Zeitalter
      • Linkbuilding Seminar
      • LinkedIn Ads Seminar
      • LinkedIn Advertising (Ads) Seminar für Fortgeschrittene
      • LinkedIn Seminar
      • Local SEO Seminar
      • Matomo Seminar (Google Analytics Alternative)
      • Online Marketing Seminar
      • Online Marketing Strategie Seminar
      • Onpage SEO Seminar
      • SEO für Online Shops Seminar
      • SEO Seminar
      • SEO Seminar für Fortgeschrittene
      • SEO Seminar für Management
      • Social Media Seminar
      • Strategisches CRM- & Lead-Management als Wachstumstreiber
      • WordPress Seminar
    • Magazin
      Online Marketing Artikel von Experten
    • Webinare
      Kostenlose Online Marketing Webinare: Termine & Mediathek
      • SISTRIX Website Clinic
      • FRIDAY Insights
      • Affiliate Marketing Webinare
      • Content Marketing Webinare
      • Facebook Ads Webinare
      • Google Ads Webinare
      • Google Analytics Webinare
      • SEO Webinare
      • Social Media Webinare
    • Podcast
      Geballtes Online Marketing Wissen für die Ohren
      • E-Mail Marketing Podcasts
      • Google Ads Podcasts
      • Inbound Marketing Podcasts
      • Influencer Marketing Podcasts
      • Marketing Podcasts
      • Performance Marketing Podcasts
      • Suchmaschinenmarketing Podcasts
      • Social Media Podcasts
      • SEO Podcasts
    • Speaker Academy
      Der Speaker Workshop mit Bane Katic
    • Sales Academy
      Vertriebstraining mit Bane Katic & Mario Jung
  • Downloads
    • Templates
      Kostenlose Templates & Vorlagen
      • YouTube Templates
      • LinkedIn Templates
      • Instagram Templates
      • E-Mail Templates
    • eBooks
      Große Auswahl an kostenfreien Ebooks
    • (Print-)Magazin
      Alle OMT-Magazinausgaben zum Download
    • Leadmagneten
      Auswahl aller OMT-Leadmagnenten
    • Studentenarbeiten
      Studentenarbeiten zum Thema Online Marketing
    • Toolvergleiche
      Kostenfreie Tool- und Softwarevergleiche
  • Services
    • Freelancervermittlung
      Finde die passenden Freelancer für Dein Projekt
    • SEO Check
      Kostenlose Quick-Analyse Deiner Website
    • Engagement-Studie
      Starte in 2024 mit mehr Effektivität
  • Tools
  • Agenturfinder
Club-Login

    Inhaltsverzeichnis:

  • Kurzeinführung in die generative Künstliche Intelligenz
  • Large Language Models
  • ChatGPT
  • Prompt Engineering
  • Erweiterung um eigene Daten
  • Zusammenfassung
Einführung in das Prompt Engineering

© Piscine/ depositphotos.com

Einführung in das Prompt Engineering

Lesezeit: 13 Min | Autor: Sven Herchenhein

Teile den Artikel

Wie möchtest Du den Artikel konsumieren?

Künstliche Intelligenz, ChatGPT und Prompts sind wahrscheinlich die am häufigsten verwendeten technischen/wirtschaftlichen Begriffe der letzten sechs Monate.

Wenige Technologien haben sich in so kurzer Zeit so schnell entwickelt, Berufsfelder und Berufsbilder verändert und Arbeitsweisen revolutioniert. Viele sprechen über KI und diskutieren Möglichkeiten und Risiken.

Im vorliegenden Artikel beleuchten wir das Thema Prompting und Prompt Engineering für die Texterstellung und Generierung anderer Inhalte näher.

Kurzeinführung in die generative Künstliche Intelligenz

Generative KI bezeichnet den Teil der Künstlichen Intelligenz, mit dem Texte, Bilder, Videos, Audios, Programmcode und vieles mehr erstellt werden. Die Basis dafür sind in der Regel ein Text-Prompt und je nach Anwendung weitere andere Medien, die angepasst oder als Basis verwendet werden.

Die Möglichkeiten von generativer KI sind vielfältig und können in verschiedenen Bereichen eingesetzt werden. So kann sie beispielsweise in der Kunst verwendet werden, um neue und einzigartige Kunstwerke zu schaffen, die von eine meiner menschlichen Künstler:in allein nicht möglich wären.

NEU ❗ OMT-Magazin - Ausgabe #24 - JETZT HERUNTERLADEN
Die neuste OMT-Ausgabe jetzt exklusiv
NEU ❗ OMT-Magazin - Ausgabe #24 - JETZT HERUNTERLADEN

94 Seiten geballtes Online Marketing-Wissen ❗ 12 Experten beteiligt ✓ SEO ✓ E-Mail Marketing ✓ E-Commerce ✓ uvm.

Jetzt kostenfrei herunterladen!

Auch in der Musikindustrie kann generative KI eine Rolle spielen, indem sie neue Songs und Melodien generiert, die von einem menschlichen Komponisten bzw. einer Komponistin inspiriert sind.

Darüber hinaus kann generative KI auch in der Programmierung eingesetzt werden, um automatisch Code zu generieren, der bestimmte Aufgaben erfüllt. Dies kann die Arbeit von Entwicklern bzw. Entwicklerinnen und Programmierern bzw. Programmiererinnen erheblich erleichtern und beschleunigen.

Insgesamt bietet generative KI eine Fülle von Möglichkeiten und Anwendungen, die es uns ermöglichen, die Grenzen dessen zu erweitern, was wir mit Technologie erreichen können.

Beispiele für Tools im Rahmen generativer KI Systeme sind z.B.:

  • Text: OpenAI, Jasper
  • Bilder: MidJourney, Leornado
  • Sprache: ElevenLabs
  • Code: CoPilot

Der Markt für generative KI wird laut McKinsey von 40 Milliarden Dollar in 2022 auf 1,3 Billionen Dollar im Jahr 2032 wachsen, das entspricht einem Wachstum von 42 % pro Jahr (linkedin.com)

Large Language Models

Die Grundlage für die generativen KI-Anwendungen sind sogenannte Large Language Models (kurz LLMs). Diese werden auf der Basis von Daten trainiert und in der Regel durch menschliches Feedback optimiert. Die Fähigkeiten der Anwendungen basieren daher immer auf demjenigen Input, den die jeweiligen Modelle erhalten haben.

Wie Du mit generativer AI & ChatGPT den ROI digitaler Maßnahmen steigerst
kostenfreies Webinar
Wie Du mit generativer AI & ChatGPT den ROI digitaler Maßnahmen steigerst — Malte Witt

Benjamin Born und Malte Witt von Upthrust.de enthüllen praxisnahe Beispiele, bewältigte Herausforderungen und erfolgreiche Methoden aus Projekten. Entdecke, wie wir generative AI und ChatGPT zu unserem Vorteil ...

Gratis anschauen

Um Abfrageergebnisse besser interpretieren zu können, muss man verstehen, welche Algorithmen hinter den LLMs liegen, wie diese Sprachmodelle funktionieren und die eigenen Prompts verarbeitet werden.

Die GPT-3.5 Architektur von OpenAI wurde auf der Basis der folgenden unstrukturierten Daten zum Stichtag Juni 2021 trainiert:

  • 3,2 Milliarden Webseiten aus Web Corpus inklusive Bilder, Links und archivierte Texte
  • 45 Millionen Webseiten (WebText2), die auf Reddit besonders gut bewertet wurden
  • 200.000 Bücher (nicht alle Bücher der Welt)
  • Englische Wikipedia-Seiten

Auf dieser Grundlage wurden dann weitere Mechanismen wie Supervised Finetuning, Reward Modeling und Reinforcement Learning by Human Feedback angewendet, um das Ergebnis zu verbessern und die Fähigkeiten der LLMs zu spezifizieren. Allein die Kosten für die Bereitstellung der Rechenleistung sollen 3,5 Millionen Dollar betragen haben (zdnet.com/, wikipedia.or, linkedin.com).

ChatGPT ist jedoch nicht die einzige Anwendung bzw. das einzige LLM, mit dem generative KI-Aufgaben erledigt werden können. Derzeit werden auf der Seite Hugging Face pro Woche etwa 5.000 neue Modelle mit sehr unterschiedlichen Fähigkeiten veröffentlicht. Nicht alle Modelle sind jedoch so umfangreich und ganzheitlich wie das von OpenAI.

Es existieren auch spezialisierte Modelle, die ohne weitere Mechanismen wie z.B. Supervised Finetuning bereits gute Ergebnisse liefern. Auf dem Open LLM Leaderboard kann man sich viele Modelle ansehen. (huggingface.co)

Es gibt folglich viele Modelle, die außer ChatGPT genutzt werden können, und das von ihm genutzte Modell ist weder das einzige noch das neueste Modell. Es ist von entscheidender Bedeutung, das richtige Modell für den jeweiligen Anwendungsfall auszuwählen, da die Auswahl des Modells einen erheblichen Einfluss auf das Ergebnis haben kann.

Die Wahl des Modells hängt von verschiedenen Faktoren ab, wie der Art des Textes, der Länge des Textes, dem Zweck des Textes und der Zielgruppe. Je nach Datenbasis generiert das Modell bzw. das entsprechende Tool entsprechend spezifische Ergebnisse für spezielle Themen, Berufsfelder, Anwendungsgebiete oder Aufgabenstellungen.

Darüber hinaus spielen auch die verfügbaren Ressourcen und die verfügbare Technologie eine Rolle bei der Wahl des Modells. Es ist also wichtig, sorgfältig zu prüfen, welches Modell am besten geeignet ist, um das gewünschte Ergebnis zu erzielen. Im Folgenden werden wir uns aufgrund der sehr großen Verbreitung und Qualität auf ChatGPT fokussieren.

ChatGPT

Die meisten Anwender:innen kennen ChatGPT in Form der Weboberfläche, die einem Chat sehr ähnelt. Über die Texteingabe gibt man sein Prompt ein und ChatGPT antwortet mithilfe seines Sprachmodelles bzw. vervollständigt das Prompt im jeweiligen Chatbot.

Screenshot ChatGPT Startseite

Diese sehr einfache Oberfläche ist für viele einfache Anwendungsfälle ausreichend. Es ist jedoch darauf hinzuweisen, dass Prompts und der Chat-Verlauf einer Längenbeschränkung unterliegen, die je nach Modell und Tool bei ca. 4.000 Zeichen liegt.

Sobald jedoch komplexere Prompts verwendet werden, lohnt es sich, einen Blick auf die OpenAI API zu werfen, da ChatGPT noch mehr Optionen bietet:

  1. User Prompt: Das Prompt, das an ChatGPT gesendet werden soll
  2. System Prompt: Hier kann dem System mitgeteilt werden, wie es sich im Generellen verhalten Beispiele sind: “Du bist ein technischer Redakteur” oder “Du antwortest nur auf englisch”, etc.
  3. Model: Auswahl des anzuwendenden Models (z.B. gpt-4)
  4. Temperature: Welche “Temperature” soll für die Antworten verwendet werden (zwischen 0 und 2? Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministischer machen.
  5. Maximum Length: Wie lange sollen die Antworten sein (ein Wort hat ca. 4 Tokens)?
ChatGPT Bedienoberfläche Einstellungen

Über diese Oberfläche lassen sich die Ergebnisse des Prompts wesentlich besser steuern und optimieren. Für die Erstellung von idealen Prompts lohnt es sich, die Techniken des Prompt Engineerings etwas näher zu betrachten.

ChatGPT für SEA-Kampagnen
kostenfreies Webinar
ChatGPT für SEA-Kampagnen — Cindy Ebner

In diesem Webinar erhältst Du eine praktische Anleitung zum Einsatz von ChatGPT für die Erstellung, das kontinuierliche Monitoring und die Optimierung Deiner SEA-Kampagnen. Cindy Ebner, Head of Paid Search bei Kosch K...

Gratis anschauen

Prompt Engineering

Unter Prompt-Engineering versteht man die Erstellung und Anpassung des Prompts (die Texteingabe und Aufgabenstellung), damit die KI das oder die richtigen Ergebnisse liefert. Je nach verwendeter KI und Modell beinhaltet das Prompt Engineering eine einzelne Eingabe (Completion) oder eine Eingabesequenz, die wie ein Dialog im Chatbot funktioniert.

Im Completion Mode können Eingaben vervollständigt werden, das heißt, die Texteingabe des Nutzers bzw. der Nutzerin wird erweitert, ergänzt und damit abgeschlossen, so dass ein in sich schlüssiger vollständiger Text auf Basis der Aufgabenstellung generiert wird.

Der Chat Modus ist eher wie ein Gespräch zu betrachten, bei dem – wie auch in einer Unterhaltung – die vorher genannten Antworten zugrunde gelegt werden und als Kontext verwendet werden können. Diese sind dann implizit in den weiteren Antworten vorhanden.

Ein wesentlicher einschränkender Faktor für das Prompt Engineering ist die maximale Länge des Prompts. So ist es z.B. derzeit nicht möglich, ein gesamtes Buch in das Prompt zu integrieren, da der Text zu lang wäre. Gängige Längen sind je nach Modell 2048, 4096, 8196 Tokens oder ca. 500, 1000 oder 2000 Wörter.

Aber auch die Entwicklung weiterer Tools mit der Möglichkeit, längere Texteingaben zu verarbeiten und zur Generierung von Ergebnissen zu nutzen, schreitet sehr zügig voran.

Zur Lösung von Problemen, die längere Texte verarbeiten sollen, kann das Prompt aufgeteilt werden. Weitere Techniken im Rahmen des Prompt Engineering sind Embeddings, Finetuning oder das Trainieren eines angepassten Modells, die hier jedoch nicht weiter erläutert werden sollen.

Im Folgenden sehen wir uns die verschiedenen Stufen des Prompt Engineerings an.

Prompt Basics

Zunächst sei noch einmal erwähnt, dass es sich bei Prompts um natürliche Sprache handelt. Einige Ansätze scheinen daher auf dem ersten Anblick trivial. Dennoch ist zu erwähnen, dass eine KI nicht wie der Mensch funktioniert, der allein aufgrund des Kontexts, Umfeld und des impliziten Wissens die Fragen automatisch um nicht explizite Informationen ergänzt und die Fragen im Gesamtbezug beantwortet.

All das kann die KI nicht aus dem Prompt herauslesen. Es ist daher notwendig, Prompts so genau wie möglich zu beschreiben und Rahmenbedingungen zu erwähnen, die einem wichtig sind. Eine KI hat für sich gesehen keine Intelligenz und keine Empathie, sondern basiert auf Sprachmodellen. Sie versucht, immer zu antworten, auch wenn die Antwort in unseren Augen keinen Sinn ergibt.

Hier eine kleine Veranschaulichung: “THIS “EXACT INSTRUCTIONS CHALLENGE” IS SO HILARIOUS”.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Inhalt entsperren Erforderlichen Service akzeptieren und Inhalte entsperren

Zu den Basics für gutes Prompting gehören die folgenden einfachen Regeln, die man sich am besten am Beispiel eines Architekten- oder Agentur-Briefings vorstellen kann:

  • Klarheit und Wortwahl: Die Verwendung der richtigen Wörter im richtigen Kontext.
  • Kontext: Welche Informationen braucht die KI im Kontext.
  • Explizit: Klar schreiben, was das erwartete Ergebnis sein soll.
  • Antworten ausschließen: Was möchte man nicht haben.
  • Länge der Antworten: Wie lange sollen die Antworten sein.

Prompt Templates

Für wiederkehrende Aufgaben eignen sich Prompt Templates, die die oben angeführten Basics verwenden und das Prompt Engineering somit deutlich effizienter gestalten. Diese Templates werden u.a. in der Automatisierung von KI Aufgaben eingesetzt. Einfache (sehr verkürzte) Beispiele hierfür sind:

  • “Summarize the following text: [Text Input]”
  • “Translate the following text: [Text Input] into [language]”
  • “Create a short LinkedIn post for the following blogpost [Post Title], [Post Summary], [Post Url]”

Die Platzhalter in eckigen Klammern werden dabei durch die Automatisierung ersetzt. So können z.B. eingehende E-Mails automatisiert verarbeitet werden oder für neue Einträge in Tabellen bzw. Drittsysteme Texte erstellt werden.

Auch für komplexere Aufgaben sind Templates für Prompts für viele verschiedene Unternehmensbereiche denkbar. Es ist denkbar, dass sich viele Berufsbilder dahingehend entwickeln, dass die Generierung von Templates im Rahmen des Prompt Engineering eine zentrale Rolle erhält:

  • Im Tourismus-Umfeld: “Erstelle eine Reiseroute für eine zweitägige Reise nach [Stadt]: welche Orte sollte man besuchen und welche Speisen sollte man von morgens bis abends probieren, und geben Sie mir das Gesamtbudget. Stadt: [hier einfügen]”
  • Im Marketing: “Entwickle Ideen, wie E-Mail-Marketing für [Unternehmen] eingesetzt werden kann, um bestehende Kunden zu binden und Wiederholungskäufe von [Produktlinie] zu fördern. Unternehmen = [hier einfügen] Produktlinie = [hier einfügen]”
  • In der Produktentwicklung: “Erstelle Vorschläge, wie ich den Funktionsumfang von [Produkt/Dienstleistung] steigern kann, um die Kundenbindung zu erhöhen. Gib präzise Ideen und Schritt-für-Schritt-Anleitungen, um einzigartig zu bleiben.”

Beispiele im Prompt

Man kann der Künstlichen Intelligenz durch Beispiele im Prompt mitteilen, wie sie arbeiten soll und wie die Ergebnisse aussehen sollen. Der Vorteil der Beispiele ist dabei, dass die Algorithmen der Künstlichen Intelligenz zum einen die Anforderungen besser “versteht” und die Ergebnisse zum anderen eher dem gewünschten Output entsprechen.

Folgendes Beispiel zeigt, wie sich Ergebnisse auch im JSON Format gestalten lassen:

Screenshot ChatGPT Prompt schreiben

Aber Achtung, die Rückgabe eines Prompt ist für eine Natural Language Processing (NLP) KI nicht deterministisch. Soll heißen, es ist nicht sichergestellt, dass das Ergebnis für jede Anfrage das gleiche Resultat liefert. Möchte man eine bestimmte Rückgabe garantieren, ist der Weg über Functions (openai.com) oder Plugins ein gangbarer Weg (openai.com).

System Nachrichten für Prompts

Die System-Nachricht ist ebenfalls ein Prompt. Mit diesem Prompt sagt man der KI, wie sie sich verhalten soll. Sie bilden daher eine Art Rahmen oder Restriktionen für das Prompt Engineering.

Die einfachsten Anweisungen können z.B. Framing sein:

  • Du bist eine hilfreiche KI, die Texte für Linkend schreibt.
  • Du antwortest nur auf Spanisch.
  • Deine Antworten sind so, dass ein 10-Jähriger sie versteht.
  • Beende jede Antwort mit einem passenden Emoji.

Chain of Thoughts

Die Ausgabequalität eines Prompts lässt sich über sogenannte “Chain of Thoughts” (häufig mit CoT abgekürzt) verbessern. Forscher:innen haben gezeigt, dass, wenn man der KI sagt, dass sie Schritt-für-Schritt denken und das Ergebnis in Bezug zur Aufgabenstellung setzen soll, das Ergebnis besser gegenüber dem Standard Prompt ist (siehe arxiv.org).

Chain of Thoughts

(Quelle: arxiv.org)

Die Verbesserung können beeindruckend sein:

No. Category Zero-shot Chain-of-Thought (CoT) Trigger Prompt Accuracy
 

1

Automatic Prompt Engineer Let’s work this out in a step by step way to be sure we have the right answer.  

82.0

 

2

Human- Designed  

Let’s think step by step. (*1)

 

78.7

3 First, (*2) 77.3
4 Let’s think about this logically. 74.5
5 Let’s solve this problem by splitting it into steps. (*3) 72.2
6 Let’s be realistic and think step by step 70.8
7 Let’s think like a detective step by step. 70.3
8 Let’s think 57.5
9 Before we dive into the answer, 55.7
10 The answer is after the proof. 45.7
– (Zero-shot) 17.7

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Inhalt entsperren Erforderlichen Service akzeptieren und Inhalte entsperren

Der Vollständigkeit halber sei hier noch der “Tree of Thoughts” (kurz ToT) Mechanismus erwähnt, der noch bessere Ergebnisse erzielen kann. (Quelle: arxiv.org)

Tree of Thoughts

(Quelle: arxiv.org)

Erweiterung um eigene Daten

Das Verwenden von ChatGPT oder anderen Systemen der Künstlichen Intelligenz bedeutet in der Regel, dass, wie eingangs erwähnt, die zugrundeliegenden Modelle mit Daten und Informationen trainiert wurden, die allgemein zugänglich sind, wie Webseiten, Bücher, Wikipedia-Einträge.

Um noch bessere Ergebnisse bei der Verwendung der KI zu erzielen, wäre es hilfreich, wenn eigene Daten aus dem Unternehmen, die die Strategie widerspiegeln oder Kundenpräferenzen enthalten sowie Produktdetails zugrunde legen, verwendet werden könnten, um auf das eigene Unternehmen zugeschnittene Ergebnisse zu liefern.

Bei der Eingabe dieser Daten als Informationen im Prompt sind ggf. datenschutzrechtliche Aspekte zu berücksichtigen, da diese Informationen meist vertraulich gehalten werden sollen. Eine einfache Möglichkeit, die Daten der KI bereitzustellen, besteht in der Hinzunahme der relevanten Texte in das Prompt, was aber zu Problemen hinsichtlich der maximalen Tokens führen kann.

Praxis statt Science Fiction: Was heute schon mit KI im E-Commerce geht
kostenfreies Webinar
Was heute schon mit KI im E-Commerce geht — Andreas Wander

Wir erinnern uns alle an den Wow-Effekt beim ersten Prompt. Keine Frage, die Sprachmodelle sind mächtig. Aber Generative AI ist mehr als nur ein Chat-Interface. Es ist eher wie ein digitales Ketchup. Vieles schmeckt da...

Gratis anschauen

Eine weitere Möglichkeit besteht darin, eine eigene Datenbasis auf der Grundlage interner Daten in Dokumenten oder Datenbanken aufzubauen. Dabei werden die Daten als sogenannte Embeddings übersetzt und in einer Vektordatenbank verfügbar gemacht. Diese Datenbank ist nur intern zugänglich und die Abfragen gelangen nicht in externe Hände.

Nun können Abfragen mit “öffentlichen KI-Modellen” mit der internen Vektordatenbank kombiniert werden. Die passenden Vektoren werden dabei über eine Suche aus der Vektordatenbank extrahiert, indem die Anfrage ebenfalls vektorisiert und als Ähnlichkeitssuche gegen die Datenbank ausgeführt wird.

Die sich daraus ergebenden ähnlichen Vektoren werden dann als Zusatzinformationen in die Abfrage an die KI übergeben.

Erweiterung um eigene Daten

Zusammenfassung

Einfaches Prompting wird in den nächsten Monaten und Jahren zum Standard-Repertoire der Fähigkeiten von Anwendern bzw. Anwenderinnen gehören. Da es sich um natürliche Sprache handelt, ist die Erstellung weit leichter als z.B. Programmierungen.

Trotzdem wird es wichtig werden, dass sich Mitarbeiter Kompetenzen im Prompt Engineering aufbauen, denn je besser die Prompts verwendet werden können, umso effektiver sind die Antworten und damit die Unterstützung durch die KI.

Insbesondere wird der Fokus hier auf die Formulierung der Prompts gelenkt, die dann im Rahmen von System-Nachrichten noch zielgerichteter ausgewertet werden können. Stufenweises Fragen sowie die Ergänzung eigener Daten machen das KI-Modell dann zu einem sehr mächtigen Hilfsmittel für alle Unternehmensbereiche. Das Nutzen von Templates für wiederkehrende Abfragen spart den Mitarbeitern bzw. Mitarbeiterinnen noch einmal zusätzlich Zeit.

Des Weiteren werden die verschiedenen Tools und Anbieter geeignete Oberflächen bereitstellen und “unter der Haube” automatisch Kontextinformationen in die Prompts einfließen lassen – im Sinne von “den bzw. die Anwender:in besser verstehen”.

Prompt-Engineering – also Spezialwissen über die verwendeten Large Language Models und wie man mit diesen über Prompts reagiert – befindet sich gerade erst am Anfang. Mit dem Erfolg von generativer KI wird die Bedeutung im betrieblichen Umfeld stark zunehmen.

omt logo

Diesen Artikel jetzt als Podcast anhören

Jetzt anhören auf: Spotify | Apple Podcast | Google Podcast

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen
Inhalt entsperren Erforderlichen Service akzeptieren und Inhalte entsperren
Teile den Artikel
Wie ist Deine Meinung zu dem Thema? Wir freuen uns über Deinen

Diesen Artikel bewerten

1 Stern2 Sterne3 Sterne4 Sterne5 Sterne (Noch keine Bewertungen)

Willst Du im Online Marketing besser werden?

Mit unserem Newsletter schicken wir Dir regelmäßig unsere neusten Webinare und Magazinartikel zu den unterschiedlichen Online Marketing Themen. Mehr als 10.000 Abonnenten nutzen es bereits!

Sie sehen gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Inhalt entsperren Erforderlichen Service akzeptieren und Inhalte entsperren
Mehr Informationen

Sven Herchenhein

Sven Herchenhein

Sven Herchenhein ist Vorstand der efec AG. Die efec AG ist spezialisiert auf die Einführung von KI-Lösungen für Unternehmen, um Geschäftsprozesse optimal zu unterstützen. Mit AI-Context bietet die efec AG alle relevanten Informationen für den betrieblichen Einsatz für KI an.

Weitere interessante Artikel zum Thema:

Hyperpersonalisierung: Wie Unternehmen Kundenwünsche antizipieren, bevor sie entstehen OMT Magazin

Hyperpersonalisierung: Wie Unternehmen Kundenwünsche antizipieren, be... Online Marketing

Sören Stamer 10 Min

Seien wir ehrlich: Wer hat schon Lust, lange technische Daten zu vergleichen oder sich durch unzählige Produktbeschreibungen zu arbeiten. Gerade bei komplexeren Produkten wie einer Breitbandanbindung...
Datenschutz im Online-Marketing OMT Magazin

Datenschutz im Online-Marketing

Online Marketing

Maryse Pahlke 17 Min

Digitale Kundenbindungsprogramme und POS-Integration im B2B-Marketing OMT Magazin

Digitale Kundenbindungsprogramme und POS-Integration im B2B-Marketing

Online Marketing

Nicole Schlenz 6 Min

Künstliche Intelligenz und Datenschutz im Einklang: So gelingt innovatives Marketing OMT Magazin

Künstliche Intelligenz und Datenschutz im Einklang: So gelingt innova...

Online Marketing

Niklas Eichler 14 Min

Abonnieren
Benachrichtige mich bei
guest
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
https://www.reachx.de https://www.pure-host.de/ https://de.depositphotos.com/
Du bist hier: 
  • Home
  • »
  • Online Marketing
  • »
  • Einführung in das Prompt Engineering

Alles über…

  • Affiliate Marketing
  • Amazon Marketing
  • Amazon SEO
  • Content Marketing
  • Conversion Optimierung
  • Digital Marketing
  • Direktmarketing
  • E-Commerce
  • E-Mail-Marketing
  • Facebook Ads
  • Google Analytics
  • Google Ads (SEA)
  • Google My Business
  • Growth Hacking
  • Inbound Marketing
  • Influencer Marketing
  • Internet Marketing
  • Linkbuilding
  • LinkedIn Ads
  • Local SEO
  • Marketing
  • Online Marketing
  • Performance Marketing
  • Pinterest Marketing
  • Podcast Marketing
  • Public Relations (PR)
  • Social Media Marketing
  • Suchmaschinenmarketing (SEM)
  • Suchmaschinenoptimierung
  • TikTok Marketing
  • Video-Marketing
  • Webanalyse
  • Webdesign
  • WordPress

Sonstiges

  • OMT 2025
  • Toolkonferenz 2025
  • Agency Day 2025
  • OMT-Clubtreffen
  • Speaker Academy
  • Sales Academy
  • SEO Check
  • Download-Center
  • kostenfreie Online Marketing-Ebooks
  • Studentenarbeiten
  • Templates
  • Online Marketing Trends 2024
  • Alle Experten des OMT
  • OMT-Gehaltsumfrage
  • OMT-Club
  • OMT-Lexikon
  • Das OMT-Team
  • Jobs-Portal
  • Karriere beim OMT
  • Talentpool
  • Online Marketing Jobs
  • OMT-Botschafter
  • Newsletter

Rechtliches

  • AGB
  • Datenschutzerklärung
  • Impressum

OMT GmbH

Feldstraße 7
65719 Hofheim am Taunus
tel:06192 - 9626152
[email protected]
t

OMT-Bewertungen

https://www.omt.de/uploads/2021/01/OMT-Social-Bewertungen.png https://www.omt.de/uploads/2018/12/OMT-Google-Bewertungen-NEU-191223.jpg https://www.omt.de/uploads/2018/12/OMT-Facebook-Bewertungen-NEU-191223.jpg
wpDiscuz
0
0
Interessanter Artikel? Wir freuen uns über Deinen Kommentarx
()
x
| Antworten