← Zurück zum Journal
    ENDE
    8. März 2026·SEQNCE·2 min read·Aktualisiert 8. März 2026

    Kling 3.0 ist da: Natives 4K, Mocap-Bewegungssteuerung und was das fuer die Videoproduktion bedeutet

    Kling 3.0 ist draussen. Und ehrlich gesagt ist das ein grosser Schritt.

    Kuaishou hat am 5. Februar 2026 Version 3.0 ihres AI-Videomodells veroeffentlicht. Die Zahlen sprechen fuer sich: natives 4K bei 60fps, Bewegungsqualitaet auf Mocap-Niveau und ein Universal-Reference-System, das Charaktere ueber mehrere Shots hinweg konsistent haelt. So ein Update stellt man nicht einfach zur Seite.

    Was ist Kling 3.0?

    Kling AI ist ein Videogenerierungsmodell von Kuaishou, dem chinesischen Tech-Unternehmen hinter der Kurzvideo-Plattform. Version 3.0 ist ihre bisher leistungsfaehigste Version. Die wichtigsten Neuerungen:

    • Natives 4K bei 60fps — die erste kommerziell verfuegbare AI-Video-API, die das anbietet
    • Mocap-Level Bewegungssteuerung — Charakterbewegungen koennen praezise gesteuert werden
    • Physikbasiertes Bewegungssystem — Stoffe, Haare, Wasser und Objekte verhalten sich realistisch
    • Universal Reference — bis zu 7 Referenzbilder oder Videos, um Aussehen, Gang und Stimme eines Charakters konsistent zu halten
    • Natives Audio und Lippensynchronisation — Dialogszenen ohne separaten Nachbearbeitungsschritt

    Warum das wichtig ist

    Das groesste Problem bei AI-Video war bisher die Inkonsistenz. Charaktere veraendern sich von Shot zu Shot. Die Physik stimmt nicht. Eine Einstellung sieht gut aus, die naechste ist komplett daneben. Kling 3.0 geht dieses Problem direkt mit dem Universal-Reference-System an. Man gibt Charakterreferenzen vor und das Modell haelt daran fest. Das ist der Schluesselfaktor, der narrative Arbeit moeglich macht.

    Der native 4K-Output ist ebenfalls bedeutsam. Bis jetzt musste AI-generiertes Material vor dem Schnitt aufwaendig hochskaliert werden, um neben echtem Kameramaterial zu bestehen. Bei nativem 4K wird dieser Unterschied deutlich kleiner. Noch nicht weg, aber kleiner.

    Und das Physiksystem ist wirklich beeindruckend. Stoff bewegt sich. Wasser spritzt korrekt. Das ist kein kosmetisches Detail, das ist der Unterschied zwischen Material, das als AI erkennbar ist, und Material, das es nicht ist.

    WIE SEQNCE DAS EINSETZT

    Wir beobachten Kling seit Version 1.0. Der Sprung auf 3.0 ist der, der unseren Workflow wirklich veraendert. Wir testen es fuer Set-Extension und Hintergrundgenerierung bei Werbeproduktionen, wo das Budget keine Locationsuche in fuenf Staedten erlaubt. Wir schauen uns ausserdem das Universal-Reference-System fuer charakterbasierte Kampagnenarbeit genauer an. Wenn wir das Erscheinungsbild eines Brand Ambassador ueber eine ganze Kampagne hinweg festlegen koennen und darum herum Szenen generieren, spart das Produktionskosten ohne Qualitaetsverlust.

    Die Mocap-Level-Bewegungssteuerung eroeffnet ausserdem neue Moeglichkeiten beim Storyboarding. Statt grober Animatiken koennen wir jetzt Pre-Viz generieren, auf die Kunden wirklich reagieren koennen. Das macht den Pitchprozess schneller und ueberzeugender.

    Kurz zusammengefasst

    • Kling 3.0 ist das erste kommerziell verfuegbare AI-Videomodell mit nativem 4K bei 60fps
    • Universal Reference loest das Konsistenzproblem bei Charakteren, den groessten Blocker fuer narratives AI-Video
    • Physikbasierte Bewegung und natives Audio bringen es naeher an produktionsreifes Material als alles zuvor

    LASS UNS WAS BAUEN

    lars@seqnce.ch