Ein kräftiger Baum mit vielen Verästelungen in Aquarell

Was ändert sich mit GPT-4?

Seit Monaten sprechen alle davon: Wenn GPT-4 kommt, ändert sich alles. Wir haben für euch geprüft, was dran ist und was sich wirklich verbessert hat. So viel vorneweg: GPT-4 ist wirklich mächtig. Aber was ändert sich mit GPT-4 konkret? 

 

GPT-4 ist multimodal

Im Gegensatz zu den Vorgänger-Modellen ist GPT-4 ein multimodales Modell. Das heißt, es kann Input verschiedener Art verarbeitet. Zum Beispiel Bilder. Man fügt ein Bild ein und bekommt Output aus dem System. Eine konkrete Anwendung für Menschen in der Kommunikationsbranche: Du zeichnest per Hand wireframes, fütterst es GPT-4 und bekommst Inhalte sowie Code aus GPT-4. Aktuell ist multimodaler Input aber erst für ForscherInnen verfügbar. Fazit: Multimodalität eröffnet neue Möglichkeiten für Marketingmaßnahmen, die visuelle Elemente und Text kombinieren. Bei Aleph Alpha (aleph-alpha.com) könnt ihr übrigens schon seit Monaten multimodal Inhalte verarbeiten. Das ist ein deutsches Unternehmen, deren Interface wir auch gerne nutzen.

 

GPT-4 beherrscht Programmiersprachen

Programmierer als Gate-Keeper fürs Marketing, diese Rolle wird sich verschieben. Denn mit den Codex-Sprachmodellen hatte man schon die Möglichkeit auf Basis eines Inputs in Form eines natürlichen Texts Code erzeugen zu lassen. Das kann nun auch GPT-4. Damit können Marketer sagen: „Schau, ich habe meine Idee schon einmal mit GPT-4 in einer Programmiersprache nach Wahl als Entwurf vorbereitet. Was hältst du davon?“ Für mich ändert das einiges!

 

GPT-4 ist kompetenter

GPT-4 hat den Sommelier-Test bestanden. Ich wusste ja nicht einmal, dass es hier ein offizielles Prüfungsschema gibt… Aber ja, GPT-4 ist kompetent in vielen Wissens- und Fachdomänen. Hier ein Vergleich mit der Leistung von GPT-3.5: 

Vergleich mit der Leistung von GPT-3.5 in standardisierten Tests
Vergleich mit der Leistung von GPT-3.5 in standardisierten Tests

 

GPT-4 beherrscht längere Inhalte 

GPT-4 kann sehr viel längere Texte verarbeiten, sowohl als Prompt, als auch als Output. In Zahlen: Bei GPT-3 war bisher bei 4.000 Tokens Schluss, das entspricht Pi mal Daumen 2.500 Wörtern. GPT-4 schafft 32.000 Tokens. Das heißt, ihr könnt schon mit Hilfe des Prompts euren Output wesentlich besser auf euch zuschneiden, wenn ihr mehr Beispiel-Texte einfügt. Wenn ihr einen Roman schreiben wollt, dann braucht ihr für 100 Seiten Text nicht recht viel mehr als drei kohärente Prompts… Längere Textverarbeitung ist natürlich auch gut für das OpenAI Geschäftsmodell, aber: Fair enough, denn Preis-Leistung stimmt hier noch.

 

GPT-4 lässt sich mit Prompts tunen

Prompts und Prompt-Techniken, die für Sprachmodelle entwickelt und getestet wurden, kitzeln auch aus GPT-4 noch mehr heraus. Few-Shot und Chain-of-Thought Prompting sind immer noch entscheidend. Das heißt: Am Ende hast es immer noch Du in der Hand, ob Dein Output gut ist – oder nicht. Du kannst hier noch einmal lesen, warum genau Du Dich mit Prompt Engineering beschäftigen sollst, zumindest unserer Ansicht nach: Warum Designer jetzt Prompt Engineering lernen müssen

 

TL;DR

 

GPT-4 von OpenAI bietet zahlreiche Möglichkeiten für Marketingprofis, ihre Strategien und Prozesse zu optimieren. Die Verbesserungen gegenüber GPT-3 sind signifikant und eröffnen neue Anwendungsmöglichkeiten, wie die Multimodalität und die Fähigkeit, längere Texte und Konversationen zu verarbeiten. Unternehmen, die GPT-4 effektiv einsetzen, können von einer effizienteren Content-Generierung, besseren Personalisierung und einer höheren Reichweite profitieren. Durch den Einsatz von GPT-4 können Marketingteams ihre Ressourcen strategischer nutzen und innovative Kampagnen entwickeln, die auf die Bedürfnisse ihrer Kunden zugeschnitten sind. Auch in näherer Zukunft kommt es auf die Prompts an, um guten Output zu bekommen. Dieser letzte Absatz wurde von GPT-4 verfasst, der Rest von Vroni. 

 

 

Hier noch der Prompt zum Beitragsbild: stable diffusion 1.5: strybk-tree-kids-story-book-style-muted-colors-watercolor-style

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »
a screenshot of a chat interface Claude
Uncategorized
Schau ins Denkprotokoll: Was KI-Modelle verraten, wenn man sie laut denken lässt

Ich habe Claude Schere, Stein, Papier spielen lassen. Drei Runden. Claude hat jede einzelne gewonnen. Beeindruckend? Auf den ersten Blick schon. Bis ich ins Denkprotokoll geschaut habe. Dort stand, sinngemäß: „Ich sehe die Wahl des Nutzers, bevor ich meine eigene treffe. Das ist nicht fair.“ Das Ergebnis (3:0 für Claude) sagt wenig. Das Denkprotokoll sagt alles. Ich zeige dieses Beispiel inzwischen in fast jedem Seminar, weil es in dreißig Sekunden demonstriert, was die meisten KI-Nutzer

Weiterlesen »
KI News
So einfach kannst du ComfyUI nutzen: Comfy Cloud ist offiziell aus der Beta raus

ComfyUI ohne eigene GPU, ohne Terminal, ohne Setup, direkt im Browser. Seit dem 4. März 2026 ist Comfy Cloud offiziell aus der Beta. Das klingt nach dem Moment, auf den viele gewartet haben. Meine These: Comfy Cloud ist das einfachste Einstiegstor in ComfyUI, das es gibt. Aber wer regelmäßig und ernsthaft damit arbeitet, sollte die Kosten genau durchrechnen, und Alternativen kennen. Was sich seit der Beta verändert hat In meinem ursprünglichen Post hatte ich Custom

Weiterlesen »
Minimalistische, quadratische Infografik mit dem Haupttitel "EVOLUTION: PROMPT -> CONTEXT -> SKILLS ENGINEERING". Darunter befinden sich drei farblich kodierte, rechteckige Felder, die durch Pfeile von links nach rechts verbunden sind und einen Entwicklungsprozess darstellen. Das linke, hellblaue Feld ist betitelt mit "PROMPT ENGINEERING". Es enthält eine Ikone einer Gedankenblase mit einem Fragezeichen und einer Lupe über Text. Text darunter: "FOCUS: Single Input", "QUESTION: 'How do I formulate my instruction?'", "GOAL: Perfect the prompt". Ein Pfeil zeigt auf das mittlere, hellorange Feld mit dem Titel "CONTEXT ENGINEERING". Die Ikone zeigt Dokumente, eine Cloud-Datenbank und Zahnräder. Text darunter: "FOCUS: Information", "QUESTION: 'What information does the AI need?'", "GOAL: Provide background data". Ein weiterer Pfeil zeigt auf das rechte, hellgrüne Feld mit dem Titel "SKILLS ENGINEERING". Die Ikone zeigt ein Flussdiagramm mit Entscheidungsknoten und einem abgehakten Kontrollkästchen. Text darunter: "FOCUS: Process Knowledge", "QUESTION: 'What process knowledge does the AI need?'", "GOAL: Optimize action competence". Am unteren Rand der Grafik fasst eine Zeile das Ergebnis der Evolution zusammen: "OPTIMIZES: Single Interactions -> Knowledge State -> Action Competence".
KI im Einsatz
Skills Engineering: Ist das was Neues oder die Weiterentwicklung von Prompt- und Context Engineering?

Nach Prompt Engineering kam Context Engineering. Jetzt zeichnet sich ab, was als Nächstes kommt: Skills Engineering. Ich rechne damit, dass der Begriff in den kommenden Monaten zunehmend auftaucht. Denn die Entwicklung dahin, was damit gemeint ist, ist sinnvoll und konsequent, wenn man bessere Ergebnisse mit KI erzielen will. Was ist Skills Engineering? „Skills Engineering beschreibt die Kompetenz, menschliches Prozesswissen so aufzubereiten, dass KI-Agenten es nutzen können.“ (Vroni) Das klingt abstrakt, meint aber etwas sehr Konkretes.

Weiterlesen »
Aktuelles
Nano Banana 2: Pro-Qualität zum Flash-Preis?

Google hat letzte Woche Nano Banana 2 veröffentlicht, technisch das Modell Gemini 3.1 Flash Image. Es ersetzt Nano Banana Pro als Standard in der Gemini-App und soll Pro-Level-Qualität bei deutlich höherer Geschwindigkeit und rund halbem Preis liefern. Ich hab’s direkt gegen Pro antreten lassen. Mein erster Eindruck: Nano Banana 2 ist verdammt nah dran. Aber vor allem ist es schnell. Geschwindigkeit als echter Hebel Während man bei Pro teilweise Minuten auf ein einzelnes Bild warten

Weiterlesen »
Aktuelles
Die neue Knappheit: Warum mehr Content weniger wert ist

Content kostet fast nichts mehr. Ein Blogpost? Fünf Minuten mit Claude. Zehn Social-Media-Varianten? Noch mal drei Minuten. Ein kompletter Redaktionsplan für sechs Monate? Eine Stunde, wenn man gründlich ist. Die Produktionskosten sind auf nahezu Null gefallen. Und genau deshalb ist die meiste Content-Strategie, die ich sehe, gerade dabei, wertlos zu werden. Das klingt paradox. Aber die Ökonomie ist eindeutig: Wenn etwas im Überfluss existiert, verliert es seinen Wert. Was knapp bleibt, wird kostbar. Content ist

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳