WAN 2.2 schlägt Flux bei LoRAs klar

Georg war schon beim ersten Test von WAN 2.2 fasziniert. Wir hatten das Modell im KI Marketing Bootcamp bereits für Bild- und Videogenerierung ausprobiert – und die Resultate waren beeindruckend. Die Highlights dieser Tests haben wir bereits in zwei separaten Blogbeiträgen festgehalten:

 

 

Doch diesmal hat Georg den nächsten Schritt gewagt: Er hat mit WAN 2.2 sein ganz eigenes LoRA trainiert. Das Ergebnis: Bilder, die so detailreich und realistisch wirken, dass man zweimal hinschauen muss.

Inhaltsverzeichnis

Warum WAN 2.2 begeistert

 

WAN 2.2 stammt ursprünglich aus der Videogenerierung von Alibaba, hat sich aber schnell als beeindruckendes Werkzeug für die Bildgenerierung herausgestellt. Besonders in der Portraitfotografie spielt es seine Stärken aus: Prompts werden präzise umgesetzt, komplexe Szenen erscheinen stimmig, und feinste Details wie Hautstruktur oder winzige Merkmale – etwa Sommersprossen oder Leberflecken – werden konsistent dargestellt.

 

Ein weiterer Grund, warum WAN 2.2 so spannend ist: Es ist als Open-Source-Modell frei zugänglich. Jeder kann es herunterladen, erforschen und mit eigenen Daten weitertrainieren. Das eröffnet Kreativen und Entwicklern enorme Möglichkeiten, ohne auf geschlossene Systeme angewiesen zu sein – vom einfachen Testlauf bis hin zu maßgeschneiderten Modellen wie Georgs LoRA.

Der Weg zum eigenen LoRA

 

Für sein Experiment nutzte Georg die Kombination aus WAN 2.1 14B und dem Ostris AI Toolkit. Über rund 5.000 Trainingsschritte hinweg verfeinerte er die Ergebnisse, bis sie seinen Vorstellungen entsprachen. Die generierten Bilder haben Formate von 1440×1800 oder 1536×1536 Pixeln und stammen unverändert direkt aus dem Modell – kein Upscaling, keine Retusche, nur purer Output. Sein Ziel war klar: realistische Portraits und fiktive Avatare, die so wirken, als kämen sie aus einem professionellen Fotostudio.

Seit Georg sein eigenes LoRA hat …

 

… ist er mal Dinosaurier-Reiter, mal Astronaut – und ehrlich gesagt war das auch schon vor WAN 2.2 so. Der Unterschied: Mit seinem neuen WAN 2.2-LoRA wirkt das Ganze einfach noch stimmiger, detailreicher und insgesamt hochwertiger. Hautstrukturen, Licht und Hintergrund fügen sich nahtlos zusammen – egal, ob er in einer Mondstation posiert oder auf einem T-Rex durch die Prärie reitet.

 

Wenn du neugierig bist, was Georg sonst noch alles an LoRA-Bildern von sich generiert, schau gerne mal auf seinem LinkedIn-Profil vorbei – dort gibt’s eine ganze Galerie voller Ideen, Stile und verrückter Szenen.

Lernpunkte und kleine Hürden

 

Natürlich gab es auch Herausforderungen. WAN 2.2 verlangt nach leistungsstarker Hardware und zeigt sich in Hochformaten manchmal schwierig – quadratische Formate liefern derzeit die besten Ergebnisse. Außerdem tendiert das Modell dazu, Körperformen leicht zu verschlanken, was sich aber durch gezieltes Prompting ausgleichen lässt.

Fazit

 

WAN 2.2 ist schon jetzt ein beeindruckendes Werkzeug – und das nicht nur wegen der Bildqualität, sondern auch, weil es Open Source ist. Jeder kann es frei herunterladen, damit experimentieren und sogar eigene LoRAs trainieren. Diese Offenheit macht es besonders spannend für alle, die gerne kreativ arbeiten oder eigene Projekte umsetzen möchten.

 

Natürlich gibt es auch Grenzen: Das Generieren von Bildern braucht Geduld, denn WAN 2.2 verlangt nach ordentlich Rechenleistung. Wer keinen High-End-Rechner hat, muss entweder auf Cloud-Lösungen setzen oder mit längeren Wartezeiten leben.

 

Trotzdem: Wir können es jedem wärmstens empfehlen, WAN 2.2 einmal selbst auszuprobieren. Es ist ein tolles Gefühl, die eigenen Ideen in so hochwertiger Qualität zu sehen – und wer dabei Unterstützung braucht, darf sich jederzeit gerne an uns im KI Marketing Bootcamp wenden. Gemeinsam bringen wir dein erstes LoRA garantiert zum Laufen.

Bereit für den nächsten Schritt?

 

Die Tools entwickeln sich schnell, und jedes hat seine Besonderheiten.

 

Im KI Marketing Bootcamp gehen wir systematisch vor: Von der Strategie über die Tool-Auswahl bis zur konkreten Umsetzung. Du lernst nicht nur die Theorie, sondern arbeitest an echten Projekten – mit direktem Feedback und praktischen Workflows, die du sofort einsetzen kannst.

 

Was erwartet dich?

  • Praxisorientierte Anleitungen: Lerne, wie du KI-Tools strategisch einsetzt und das Beste aus ihnen herausholst

  • Erprobte Workflows: Vom Konzept bis zur Umsetzung – mit sofort anwendbaren Strategien

  • Individuelle Begleitung: Kleine Gruppen und persönliche Betreuung bei deinen Projekten

Deine Vorteile:

  • Learning by Doing: Entwickle eigene Kampagnen, die auf deine spezifischen Ziele zugeschnitten sind

  • Praxiswissen: Nutze echte Beispiele und Erfolgsstrategien für deine eigenen Projekte

  • 100% Online: Flexibel lernen, wann es in deinen Zeitplan passt

Für Unternehmen: Maßgeschneiderte Workshops für dein Marketing-Team.

Dein Expertenteam: Vroni Hackl und Georg Neumann – dein Expertenteam und deine Guides durch KI im Marketing.

Vroni forscht zu Sprachmodellen, Georg trainiert seit 2022 Bild-KI Modelle

Wer hat's geschrieben?

Das könnte Dich auch interessieren:
ixel-Art-Illustration eines Detektivs im Trenchcoat und mit Sonnenbrille. Er hält ein leuchtend grünes Dokument mit der Aufschrift 'skills.md' in der Hand. Rechts daneben ist ein aufsteigender Aktienchart mit der Überschrift 'STONKS' zu sehen, sowie kleine Symbole für ein Gehirn, ein Zahnrad und eine Tastatur. Der Detektiv hat eine Sprechblase: 'SKILLS.MD: MUCH WOW, VERY AGENT.'
KI im Einsatz
Agent Skills schreiben: Anleitung mit Marketing-Beispielen

Im Analyse-Artikel über Skills Engineering habe ich beschrieben, warum strukturiertes Prozesswissen die nächste Stufe der KI-Nutzung ist. Dieser Beitrag ist die praktische Seite: Wie schreibt man einen Agent Skill? Was gehört rein, was nicht? Und wie sieht das für typische Marketing-Aufgaben aus? Was ein Agent Skill technisch ist Ein Agent Skill ist auf seine allereinfachste Weise einfach eine Textdatei namens SKILL.md. Nicht mehr, also nicht verrückt machen lassen, nur weil das fancy klingt. Absolut machbar

Weiterlesen »
a screenshot of a chat interface Claude
Uncategorized
Schau ins Denkprotokoll: Was KI-Modelle verraten, wenn man sie laut denken lässt

Ich habe Claude Schere, Stein, Papier spielen lassen. Drei Runden. Claude hat jede einzelne gewonnen. Beeindruckend? Auf den ersten Blick schon. Bis ich ins Denkprotokoll geschaut habe. Dort stand, sinngemäß: „Ich sehe die Wahl des Nutzers, bevor ich meine eigene treffe. Das ist nicht fair.“ Das Ergebnis (3:0 für Claude) sagt wenig. Das Denkprotokoll sagt alles. Ich zeige dieses Beispiel inzwischen in fast jedem Seminar, weil es in dreißig Sekunden demonstriert, was die meisten KI-Nutzer

Weiterlesen »
KI News
So einfach kannst du ComfyUI nutzen: Comfy Cloud ist offiziell aus der Beta raus

ComfyUI ohne eigene GPU, ohne Terminal, ohne Setup, direkt im Browser. Seit dem 4. März 2026 ist Comfy Cloud offiziell aus der Beta. Das klingt nach dem Moment, auf den viele gewartet haben. Meine These: Comfy Cloud ist das einfachste Einstiegstor in ComfyUI, das es gibt. Aber wer regelmäßig und ernsthaft damit arbeitet, sollte die Kosten genau durchrechnen, und Alternativen kennen. Was sich seit der Beta verändert hat In meinem ursprünglichen Post hatte ich Custom

Weiterlesen »
Minimalistische, quadratische Infografik mit dem Haupttitel "EVOLUTION: PROMPT -> CONTEXT -> SKILLS ENGINEERING". Darunter befinden sich drei farblich kodierte, rechteckige Felder, die durch Pfeile von links nach rechts verbunden sind und einen Entwicklungsprozess darstellen. Das linke, hellblaue Feld ist betitelt mit "PROMPT ENGINEERING". Es enthält eine Ikone einer Gedankenblase mit einem Fragezeichen und einer Lupe über Text. Text darunter: "FOCUS: Single Input", "QUESTION: 'How do I formulate my instruction?'", "GOAL: Perfect the prompt". Ein Pfeil zeigt auf das mittlere, hellorange Feld mit dem Titel "CONTEXT ENGINEERING". Die Ikone zeigt Dokumente, eine Cloud-Datenbank und Zahnräder. Text darunter: "FOCUS: Information", "QUESTION: 'What information does the AI need?'", "GOAL: Provide background data". Ein weiterer Pfeil zeigt auf das rechte, hellgrüne Feld mit dem Titel "SKILLS ENGINEERING". Die Ikone zeigt ein Flussdiagramm mit Entscheidungsknoten und einem abgehakten Kontrollkästchen. Text darunter: "FOCUS: Process Knowledge", "QUESTION: 'What process knowledge does the AI need?'", "GOAL: Optimize action competence". Am unteren Rand der Grafik fasst eine Zeile das Ergebnis der Evolution zusammen: "OPTIMIZES: Single Interactions -> Knowledge State -> Action Competence".
KI im Einsatz
Skills Engineering: Ist das was Neues oder die Weiterentwicklung von Prompt- und Context Engineering?

Nach Prompt Engineering kam Context Engineering. Jetzt zeichnet sich ab, was als Nächstes kommt: Skills Engineering. Ich rechne damit, dass der Begriff in den kommenden Monaten zunehmend auftaucht. Denn die Entwicklung dahin, was damit gemeint ist, ist sinnvoll und konsequent, wenn man bessere Ergebnisse mit KI erzielen will. Was ist Skills Engineering? „Skills Engineering beschreibt die Kompetenz, menschliches Prozesswissen so aufzubereiten, dass KI-Agenten es nutzen können.“ (Vroni) Das klingt abstrakt, meint aber etwas sehr Konkretes.

Weiterlesen »
Aktuelles
Nano Banana 2: Pro-Qualität zum Flash-Preis?

Google hat letzte Woche Nano Banana 2 veröffentlicht, technisch das Modell Gemini 3.1 Flash Image. Es ersetzt Nano Banana Pro als Standard in der Gemini-App und soll Pro-Level-Qualität bei deutlich höherer Geschwindigkeit und rund halbem Preis liefern. Ich hab’s direkt gegen Pro antreten lassen. Mein erster Eindruck: Nano Banana 2 ist verdammt nah dran. Aber vor allem ist es schnell. Geschwindigkeit als echter Hebel Während man bei Pro teilweise Minuten auf ein einzelnes Bild warten

Weiterlesen »
Aktuelles
Die neue Knappheit: Warum mehr Content weniger wert ist

Content kostet fast nichts mehr. Ein Blogpost? Fünf Minuten mit Claude. Zehn Social-Media-Varianten? Noch mal drei Minuten. Ein kompletter Redaktionsplan für sechs Monate? Eine Stunde, wenn man gründlich ist. Die Produktionskosten sind auf nahezu Null gefallen. Und genau deshalb ist die meiste Content-Strategie, die ich sehe, gerade dabei, wertlos zu werden. Das klingt paradox. Aber die Ökonomie ist eindeutig: Wenn etwas im Überfluss existiert, verliert es seinen Wert. Was knapp bleibt, wird kostbar. Content ist

Weiterlesen »

Hey Du. Willst du AI Content Manager werden?

Dann ab ins kostenfreie Info-Webinar am 25.03. um 12:00 Uhr. 

🚀 Exklusive Back-to-School-Aktion 🚀

Spare 880 € beim KI-Marketing-Bootcamp!

Bring eine Kolleg*in mit und erhalte 50% Rabatt für deine Begleitung.

Nur für kurze Zeit und solange Kontingent reicht! Aktion endet am 16. September 2024.

Abonniere unseren Newsletter 🥳