Dall-E 3: Brillantes Textverständnis, aber die Bildqualität hinkt nach

Die Einführung von Dall-E 3 durch OpenAI hat eine Welle von Neugier und Begeisterung in der Welt der künstlichen Intelligenz und darüber hinaus ausgelöst. Mit seinem bemerkenswerten Verständnis für natürliche Sprache und seiner Fähigkeit, komplexe Prompt-Engineering-Prozesse zu überwinden, öffnet Dall-E 3 die Türen für eine intuitive Erstellung von Bildinhalten.

 

Textverständnis versus Bildqualität

„Wer sein gewünschtes Motiv nicht beschreiben kann, wird auch hier nicht das gewünschte Ergebnis erzielen.“ 

Georg Neumann, bietet uns dabei eine weise Orientierung. Während Dall-E 3 durch seine beeindruckende Interpretation von Textprompts glänzt, wirft die Inkonstanz in der Bildqualität einen Schatten auf die ansonsten beeindruckende Technologie. In anderen Tools würde so ein Satz „Generiere mir bitte eine Illustration eines süßen rothaarigen Mädchens (2 Jahre alt), das in einer Rakete zum Mond fliegt.“ nicht gut funktionieren. Erst recht nicht auf deutsch. In Dall-E 3 liefert es aber gute Ergebnisse:

 

Im Gegensatz dazu steht aber die Fotoqualität. Hier trifft gutes Textverständnis auf ein schlechtes Datenset (Vermutung). Die generierten Fotos sehen eher nach einem Pixar-Film aus, als nach der Realität. Aber macht euch selbst ein Bild: hier eine Testreihe:

 

 

Das ethische Dilemma der künstlichen Intelligenz

 

In einer Ära, in der Deepfakes und ethische Herausforderungen rund um KI-Bilder ständig präsent sind, unterstreicht OpenAI mit seinem neuen Bildgenerator sein Engagement für Transparenz und Sicherheit, um eine verantwortungsbewusste Nutzung und Erstellung von KI-Inhalten zu gewährleisten. Die Filter mögen manchmal zwar als streng wahrgenommen werden, doch sie dienen dem Schutz gegen möglichen Missbrauch – auch wenn sie noch ein wenig Feintuning benötigen könnten. Häufig läuft man noch mit vermeintlich unbedenklichen Prompts in Fehlermeldungen. 

 

TL;DR

 

Trotz seiner beeindruckenden Textverständnisfähigkeiten und ethischen Sicherheitsnetze befindet sich Dall-E 3 noch in einem Stadium, in dem stetige Entwicklungen und Anpassungen erfolgen. Während es in seiner aktuellen Form vielversprechende Ansätze und beeindruckende Technik zeigt, bleibt die tatsächliche Anwendbarkeit in Bezug auf die Bildqualität hinter einigen Konkurrenten zurück. 

 

Für wen ist Dall-E 3 geeignet?

 

Dall-E 3 ist perfekt für alle, die sich nicht mit Prompt Engineering auseinander setzen wollen. Selbst Tante Erna kann den Bing Chat bedienen und das Motiv für Wilfrieds Geburtstagseinladung zum 70. Geburtstag generieren. Naja, zumindest fast:

 

In Sachen Bildqualität punktet Dall-E 3 (wie auch schon sein Vorgänger) bei Illustrationen. Wer also nur mal schnell eine Illustration für einen Social Media Post oder einen Blogartikel braucht, kann das künftig schmerzfrei über ChatGPT oder den Bing Chat lösen. Wer weiterhin mehr Kontrolle über sein Bild haben möchte, sollte bei Midjourney, Stable Diffusion und Firefly bleiben. Vorerst. 

 

Wie kann ich Dall-E 3 nutzen?

  1. Du kannst es jetzt schon im Bing-Chat ausprobieren. Anforderung: Du musst mit einem Microsoft-Account eingeloggt sein.
  2. Schau in deinem ChatGPT Account nach. Bei immer mehr Usern wird die Funktion in GPT-4 Chats ausgerollt. 

 

Im KI Marketing Bootcamp den Umgang mit Dall-E 3 in anderen Bild-KI Tools lernen

 

Wir haben gerade den Termin für das nächste Bootcamp festgelegt. Am 16. November 2023 gehts los. Hier findet ihr alle Informationen und das Anmeldeformular. Wir freuen uns auf euch!

 

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »
a screenshot of a chat interface Claude
Uncategorized
Schau ins Denkprotokoll: Was KI-Modelle verraten, wenn man sie laut denken lässt

Ich habe Claude Schere, Stein, Papier spielen lassen. Drei Runden. Claude hat jede einzelne gewonnen. Beeindruckend? Auf den ersten Blick schon. Bis ich ins Denkprotokoll geschaut habe. Dort stand, sinngemäß: „Ich sehe die Wahl des Nutzers, bevor ich meine eigene treffe. Das ist nicht fair.“ Das Ergebnis (3:0 für Claude) sagt wenig. Das Denkprotokoll sagt alles. Ich zeige dieses Beispiel inzwischen in fast jedem Seminar, weil es in dreißig Sekunden demonstriert, was die meisten KI-Nutzer

Weiterlesen »
KI News
So einfach kannst du ComfyUI nutzen: Comfy Cloud ist offiziell aus der Beta raus

ComfyUI ohne eigene GPU, ohne Terminal, ohne Setup, direkt im Browser. Seit dem 4. März 2026 ist Comfy Cloud offiziell aus der Beta. Das klingt nach dem Moment, auf den viele gewartet haben. Meine These: Comfy Cloud ist das einfachste Einstiegstor in ComfyUI, das es gibt. Aber wer regelmäßig und ernsthaft damit arbeitet, sollte die Kosten genau durchrechnen, und Alternativen kennen. Was sich seit der Beta verändert hat In meinem ursprünglichen Post hatte ich Custom

Weiterlesen »
Minimalistische, quadratische Infografik mit dem Haupttitel "EVOLUTION: PROMPT -> CONTEXT -> SKILLS ENGINEERING". Darunter befinden sich drei farblich kodierte, rechteckige Felder, die durch Pfeile von links nach rechts verbunden sind und einen Entwicklungsprozess darstellen. Das linke, hellblaue Feld ist betitelt mit "PROMPT ENGINEERING". Es enthält eine Ikone einer Gedankenblase mit einem Fragezeichen und einer Lupe über Text. Text darunter: "FOCUS: Single Input", "QUESTION: 'How do I formulate my instruction?'", "GOAL: Perfect the prompt". Ein Pfeil zeigt auf das mittlere, hellorange Feld mit dem Titel "CONTEXT ENGINEERING". Die Ikone zeigt Dokumente, eine Cloud-Datenbank und Zahnräder. Text darunter: "FOCUS: Information", "QUESTION: 'What information does the AI need?'", "GOAL: Provide background data". Ein weiterer Pfeil zeigt auf das rechte, hellgrüne Feld mit dem Titel "SKILLS ENGINEERING". Die Ikone zeigt ein Flussdiagramm mit Entscheidungsknoten und einem abgehakten Kontrollkästchen. Text darunter: "FOCUS: Process Knowledge", "QUESTION: 'What process knowledge does the AI need?'", "GOAL: Optimize action competence". Am unteren Rand der Grafik fasst eine Zeile das Ergebnis der Evolution zusammen: "OPTIMIZES: Single Interactions -> Knowledge State -> Action Competence".
KI im Einsatz
Skills Engineering: Ist das was Neues oder die Weiterentwicklung von Prompt- und Context Engineering?

Nach Prompt Engineering kam Context Engineering. Jetzt zeichnet sich ab, was als Nächstes kommt: Skills Engineering. Ich rechne damit, dass der Begriff in den kommenden Monaten zunehmend auftaucht. Denn die Entwicklung dahin, was damit gemeint ist, ist sinnvoll und konsequent, wenn man bessere Ergebnisse mit KI erzielen will. Was ist Skills Engineering? „Skills Engineering beschreibt die Kompetenz, menschliches Prozesswissen so aufzubereiten, dass KI-Agenten es nutzen können.“ (Vroni) Das klingt abstrakt, meint aber etwas sehr Konkretes.

Weiterlesen »
Aktuelles
Nano Banana 2: Pro-Qualität zum Flash-Preis?

Google hat letzte Woche Nano Banana 2 veröffentlicht, technisch das Modell Gemini 3.1 Flash Image. Es ersetzt Nano Banana Pro als Standard in der Gemini-App und soll Pro-Level-Qualität bei deutlich höherer Geschwindigkeit und rund halbem Preis liefern. Ich hab’s direkt gegen Pro antreten lassen. Mein erster Eindruck: Nano Banana 2 ist verdammt nah dran. Aber vor allem ist es schnell. Geschwindigkeit als echter Hebel Während man bei Pro teilweise Minuten auf ein einzelnes Bild warten

Weiterlesen »
Aktuelles
Die neue Knappheit: Warum mehr Content weniger wert ist

Content kostet fast nichts mehr. Ein Blogpost? Fünf Minuten mit Claude. Zehn Social-Media-Varianten? Noch mal drei Minuten. Ein kompletter Redaktionsplan für sechs Monate? Eine Stunde, wenn man gründlich ist. Die Produktionskosten sind auf nahezu Null gefallen. Und genau deshalb ist die meiste Content-Strategie, die ich sehe, gerade dabei, wertlos zu werden. Das klingt paradox. Aber die Ökonomie ist eindeutig: Wenn etwas im Überfluss existiert, verliert es seinen Wert. Was knapp bleibt, wird kostbar. Content ist

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳