Stable Diffusion 2.0 Release – Fluch oder Segen?

Es ist erst ein paar Monate her, dass Stable Diffusion 1.0 Release neue Welten für die Kreativwelt geöffnet hat. Nun hat Stability.ai schon neue Stable Diffusion 2.0 Models veröffentlicht. Ist das Ganze nur ein aufgefrischtes Model oder ein wirklicher Gamechanger? In diesem Beitrag bekommt Ihr die wichtigsten Änderungen zusammengefasst.

First things first: Es formen sich zwei Hardliner-Fronten: Viele werden diesen Release hassen und einige feiern. Der Shitstorm ist bereits im Gange. Aber warum?

 

Stable Diffusion 2.0 Änderungen im Überblick

 

Stability.ai hat begonnen, die rechtlichen und ethischen Implikation in ihrem Model-Training zu berücksichtigen.

 

Die neu veröffentlichen Models wurden mit Datensätzen von Laion-5B generiert, welche dann noch weiter gefiltert wurden, um „adult content“ content zu unterbinden. Ein Not Safe For Work Filter eben. 

Das für uns als Marketer & Designer aber nicht weiter schlimm. Uns trifft etwas anderes: 

 

Kunststile und Trainingsdaten großer Kunstplattformen wurden beim Training bewusst von nutzbaren Klassen entkoppelt.

 

Ein mächtiges Werkzeug in der Bilderstellung war bis jetzt das Übertragen und Mischen von Kunststilen bekannter Künstler auf text2img- und img2img-Ergebnisse. Das gehört mit SD 2.0 in Teilen der Vergangenheit an. Es wird vermutet, dass die entsprechenden Datensätze bekannter Künstler zwar für das Training verwendet wurden, aber von nutzbaren Klassen entkoppelt sind. So sollen künftige Rechtsstreits und Sammelklagen unterbunden werden. Wer also gerne Bilder im Stil von Greg Rutkowski oder anderen beliebten prompt-Addons genutzt hat, wird  enttäuscht werden. 

Jetzt aber genug genörgelt – kommen wir zum Positiven:

 

Höhere Auflösung & bessere fotorealistische Ergebnisse

 

Die neuen Models wurden mit höher aufgelösten Trainingsdaten gefüttert – 768×768 ist das neue 512×512. Aber da endet die Reise nicht. Es wurde ein spezielles Upscaling Model vorgestellt, das auf eine 4-fach Vergrößerung ausgelegt ist. Das impliziert Auflösungen von 2048×2048 und höher! 
Hochauflösende Ergebnisse mit sehr vielen Details und fotorealistischem Look sind also schon jetzt mit überschaubarer Rechenleistung in kurzer Zeit erreichbar. 

 

Bild: Stability AI – https://github.com/Stability-AI/stablediffusion/blob/main/assets/stable-samples/txt2img/

 

Neues img2img Feature: depth2image

 

img2img hat ein neues bahnbrechendes Feature erhalten: Ein Model, das für formbeständige Ergebnisse sorgt. Das Input-Image wird dabei einer Depth of Field Analyse unterzogen und sorgt für atemberaubende Ergebnisse, die ihre Grundform beibehalten.

 

Bild: Stability AI – https://github.com/Stability-AI/stablediffusion/blob/main/assets/stable-samples/depth2img/
Bild: Stability AI – https://github.com/Stability-AI/stablediffusion/blob/main/assets/stable-samples/depth2img/

 

TLDR;

 

Stable Diffusion zeigt technisch sehr innovative Ansätze, die uns künftig noch bessere Ergebnisse liefern werden. Besonders, wenn es um fotorealistische Entwürfe geht. Auf der anderen Seite wird der Einsatz von spezifischen Stilen bekannter Künstler erschwert, was bei Illustrationen und Gemälden ganz neue Ansätze im prompt-design erfordern wird. Aber hey – dafür habt ihr ja uns. Bis wir herausgefunden haben, wie damit umzugehen ist, kann man jederzeit auf ältere Models zurückgreifen. Open Source sei Dank!

 

Du willst den Umgang mit Stable Diffusion 2.0 lernen?

 

Dann ab in unser KI Marketing Bootcamp.

Veronika Hackl, die Promptqueen bei der Texterstellung und Georg Neumann, Experte für Bilderstellung und Designworkflows mit KI, zeigen euch im Bootcamp den Umgang mit künstlicher Intelligenz im Marketing. Ihr überspringt dabei einfach die hunderten Stunden Einarbeitungszeit und Recherche, die wir uns freudig angetan haben und taucht direkt in die konkrete Nutzung ein.

Also let’s go!

 

 

SD 1.5 prompt Beitragsbild: party, balloons, 3d render, pixar, octane render, hyperrealistic, 8k, vibrant colors

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »
a screenshot of a chat interface Claude
Uncategorized
Schau ins Denkprotokoll: Was KI-Modelle verraten, wenn man sie laut denken lässt

Ich habe Claude Schere, Stein, Papier spielen lassen. Drei Runden. Claude hat jede einzelne gewonnen. Beeindruckend? Auf den ersten Blick schon. Bis ich ins Denkprotokoll geschaut habe. Dort stand, sinngemäß: „Ich sehe die Wahl des Nutzers, bevor ich meine eigene treffe. Das ist nicht fair.“ Das Ergebnis (3:0 für Claude) sagt wenig. Das Denkprotokoll sagt alles. Ich zeige dieses Beispiel inzwischen in fast jedem Seminar, weil es in dreißig Sekunden demonstriert, was die meisten KI-Nutzer

Weiterlesen »
KI News
So einfach kannst du ComfyUI nutzen: Comfy Cloud ist offiziell aus der Beta raus

ComfyUI ohne eigene GPU, ohne Terminal, ohne Setup, direkt im Browser. Seit dem 4. März 2026 ist Comfy Cloud offiziell aus der Beta. Das klingt nach dem Moment, auf den viele gewartet haben. Meine These: Comfy Cloud ist das einfachste Einstiegstor in ComfyUI, das es gibt. Aber wer regelmäßig und ernsthaft damit arbeitet, sollte die Kosten genau durchrechnen, und Alternativen kennen. Was sich seit der Beta verändert hat In meinem ursprünglichen Post hatte ich Custom

Weiterlesen »
Minimalistische, quadratische Infografik mit dem Haupttitel "EVOLUTION: PROMPT -> CONTEXT -> SKILLS ENGINEERING". Darunter befinden sich drei farblich kodierte, rechteckige Felder, die durch Pfeile von links nach rechts verbunden sind und einen Entwicklungsprozess darstellen. Das linke, hellblaue Feld ist betitelt mit "PROMPT ENGINEERING". Es enthält eine Ikone einer Gedankenblase mit einem Fragezeichen und einer Lupe über Text. Text darunter: "FOCUS: Single Input", "QUESTION: 'How do I formulate my instruction?'", "GOAL: Perfect the prompt". Ein Pfeil zeigt auf das mittlere, hellorange Feld mit dem Titel "CONTEXT ENGINEERING". Die Ikone zeigt Dokumente, eine Cloud-Datenbank und Zahnräder. Text darunter: "FOCUS: Information", "QUESTION: 'What information does the AI need?'", "GOAL: Provide background data". Ein weiterer Pfeil zeigt auf das rechte, hellgrüne Feld mit dem Titel "SKILLS ENGINEERING". Die Ikone zeigt ein Flussdiagramm mit Entscheidungsknoten und einem abgehakten Kontrollkästchen. Text darunter: "FOCUS: Process Knowledge", "QUESTION: 'What process knowledge does the AI need?'", "GOAL: Optimize action competence". Am unteren Rand der Grafik fasst eine Zeile das Ergebnis der Evolution zusammen: "OPTIMIZES: Single Interactions -> Knowledge State -> Action Competence".
KI im Einsatz
Skills Engineering: Ist das was Neues oder die Weiterentwicklung von Prompt- und Context Engineering?

Nach Prompt Engineering kam Context Engineering. Jetzt zeichnet sich ab, was als Nächstes kommt: Skills Engineering. Ich rechne damit, dass der Begriff in den kommenden Monaten zunehmend auftaucht. Denn die Entwicklung dahin, was damit gemeint ist, ist sinnvoll und konsequent, wenn man bessere Ergebnisse mit KI erzielen will. Was ist Skills Engineering? „Skills Engineering beschreibt die Kompetenz, menschliches Prozesswissen so aufzubereiten, dass KI-Agenten es nutzen können.“ (Vroni) Das klingt abstrakt, meint aber etwas sehr Konkretes.

Weiterlesen »
Aktuelles
Nano Banana 2: Pro-Qualität zum Flash-Preis?

Google hat letzte Woche Nano Banana 2 veröffentlicht, technisch das Modell Gemini 3.1 Flash Image. Es ersetzt Nano Banana Pro als Standard in der Gemini-App und soll Pro-Level-Qualität bei deutlich höherer Geschwindigkeit und rund halbem Preis liefern. Ich hab’s direkt gegen Pro antreten lassen. Mein erster Eindruck: Nano Banana 2 ist verdammt nah dran. Aber vor allem ist es schnell. Geschwindigkeit als echter Hebel Während man bei Pro teilweise Minuten auf ein einzelnes Bild warten

Weiterlesen »
Aktuelles
Die neue Knappheit: Warum mehr Content weniger wert ist

Content kostet fast nichts mehr. Ein Blogpost? Fünf Minuten mit Claude. Zehn Social-Media-Varianten? Noch mal drei Minuten. Ein kompletter Redaktionsplan für sechs Monate? Eine Stunde, wenn man gründlich ist. Die Produktionskosten sind auf nahezu Null gefallen. Und genau deshalb ist die meiste Content-Strategie, die ich sehe, gerade dabei, wertlos zu werden. Das klingt paradox. Aber die Ökonomie ist eindeutig: Wenn etwas im Überfluss existiert, verliert es seinen Wert. Was knapp bleibt, wird kostbar. Content ist

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳