Website-Suche

Ich habe Sora von OpenAI ausprobiert und finde es cool


Zusammenfassung

  • ChatGPT Plus-Abonnenten erhalten 5-Sekunden-Sora-Geschmackstests, keine vollständigen 20-Sekunden-Clips.
  • Soras Videos bleiben aufgrund von Kohärenzproblemen und Visualisierungsaufforderungen ein Hit-or-Miss.
  • Die Videotechnologie von Sora wirkt weniger ausgereift als die Bilderzeugung und bleibt hinter Veo 2 zurück.

Nach Monaten des Testens ist die Sora-Videogenerierungstechnologie von OpenAI für die Öffentlichkeit verfügbar. Ich habe einige Zeit damit verbracht, mit dieser mit Spannung erwarteten Technologie herumzuspielen, und war ehrlich gesagt etwas enttäuscht.

ChatGPT Plus-Abonnenten erhalten einen 5-Sekunden-Geschmackstest von Sora

Wie jeder andere ChatGPT Plus-Abonnent hatte ich nach der Einführung von Sora für die Öffentlichkeit Zugriff darauf, meine eigenen Videos zu erstellen. Allerdings handelt es sich hierbei eher um einen Geschmackstester als um das Original. Wer speziell für Sora bezahlt, kann Clips mit einer Länge von bis zu 20 Sekunden erstellen und auf die höhere 1080p-Auflösung zugreifen. Für Plus-Abonnenten erhalten Sie 5-Sekunden-Clips und eine Qualität von bis zu 720p.

Alles, was Sie tun müssen, ist, Ihre Eingabeaufforderung in das Textfeld einzugeben, und ein paar Sekunden später haben Sie einen Videoclip, der im Wesentlichen der Funktionsweise von Midjourney oder anderen KI-Bildgeneratoren aus der Sicht des Benutzers entspricht.

Sogar kurze Clips sind ein Hit-and-Miss

Einer der Hauptgründe dafür, dass das „vollständige“ Sora-Erlebnis auf 20 Sekunden begrenzt ist, besteht darin, dass es bei dieser Technologie immer noch erhebliche Kohärenzprobleme gibt. Je länger das Video läuft, desto mehr Fehler und merkwürdige Seitensprünge werden gemacht.

Abgesehen von diesem Problem fiel es mir schwer, mir vorzustellen, was ich in meine Eingabeaufforderungen eingegeben habe. Ich habe zum Beispiel nach einem Clip gefragt, in dem ein Raumschiff in Warp geht, was ein ziemlich verbreitetes Science-Fiction-Thema ist.

Nun ja, das ist in etwa das, was ich im Sinn hatte, aber ich würde das nicht in mein unausgegorenes YouTube-Video mit sprechendem Kopf aufnehmen.

Zu anderen Zeiten ist es ziemlich genau richtig. Zum Beispiel, als ich nach einem rotierenden HTG-Logo aus Chrom fragte.

Das letzte Problem, das Sora derzeit hat, betrifft irgendeine Art von Physik. Ich habe viele Videos mit Tieren gesehen, die sich einfach nicht auf glaubwürdige Weise bewegen, und als ich nach etwas Einfachem fragte – einem Kugellager, das auf einer Schiene läuft, bekam ich dieses seltsame Video.

Selbst wenn Videos optisch perfekt sind, ist es meist die Bewegung, die sie als KI-generierten Clip erkennen lässt.

Sora fühlt sich viel weniger erwachsen als Image Generation

Ich möchte nicht den Eindruck erwecken, dass Sora nicht beeindruckend ist. Es ist eine große Errungenschaft, aber die tatsächliche Nutzung fühlt sich an wie in den Anfängen der Bilderzeugung. Dies wäre nicht so offensichtlich, wenn Google nicht genau zum richtigen Zeitpunkt Veo 2 angekündigt hätte.

Die Videos von diesem System sehen viel besser aus als die von Sora, insbesondere wenn es um die Physik bewegter Objekte geht, die korrekt aussehen.

Schauen Sie sich einfach diese offizielle Zusammenstellung von Google an.

Während man argumentieren könnte, dass es sich hierbei um Rosinenpickerei handelt, hatten einige YouTuber Zugriff auf Veo 2, und die Meinung scheint zu sein, dass Veo 2 mit deutlichem Abstand die Nase vorn hat.

Im Moment ist es nur ein lustiges Spielzeug

Es hat Spaß gemacht, dank eines Abonnements, das ich bereits habe, ein wenig mit Sora herumzuspielen, aber ich würde auf keinen Fall die monatliche Gebühr von 200 US-Dollar für dieses Produkt in seinem aktuellen Zustand zahlen wollen. Es wäre viel besser, wenn Sie einfach einen Stock-Video-Dienst abonnieren.

Wenn ich mir anschaue, was Google sich ausgedacht hat, und wenn man bedenkt, dass es in diesem Bereich noch andere Konkurrenten wie HeyGen und Runway ML gibt, erwarte ich schnelle und häufige Aktualisierungen und Verbesserungen. Schon allein deshalb, weil OpenAI unermüdlich an der Verbesserung von ChatGPT arbeitet.

Ich sehe immer noch eine mittelfristige Zukunft, in der die KI-Videogenerierung noch viel mehr leisten kann und sogar die Generierung von Inhalten in längerer Form mit präziser, zeitnaher Einhaltung und der Möglichkeit, Elemente innerhalb einer Szene zu bearbeiten, ermöglichen wird. Allerdings wird dieser Tag wahrscheinlich noch ein paar Jahre entfernt sein, und im Moment ist es eine interessante, wenn auch unpraktische Kuriosität.

Verwandte Artikel