Desinformationen durch KI-Videos: Fachleute warnen vor Manipulation im Super-Wahljahr

Aus zwei, drei Sätzen Beschreibung kann die KI „Sora“ von OpenAI ein realistisch wirkendes Video erzeugen. KI-Videogeneratoren könnten die Produktion von Deepfakes erleichtern, warnen Experten. Wie kann man noch zwischen Realität und Fiktion unterscheiden?

7 Minuten
Ein Smartphone zeigt ein KI-generiertes Video einer stylish gekleideten Frau, die durchs nächtliche Tokio bummelt. Die Szene wirkt sehr realistisch.

Der Catwalk gelingt noch nicht so perfekt. Auf einem Video flaniert eine stylisch gekleidete Frau durchs neonbunt illuminierte Tokio. Die Leuchtreklamen spiegeln sich in der regennassen Straße. Die Frau sieht sich beim Gehen um wie eine Touristin. Alles sieht echt aus. Doch achtet man auf die Beine, geschieht Bizarres: Die Füße tauschen plötzlich ihre Positionen, es folgen einige unnatürlich wirkende Ausfallschritte. So lässt sich das Video als KI-generiert erkennen.

Die KI „Sora“ vom Microsoft-gesponserten Unternehmen OpenAI zeigt, welche rasanten Fortschritte die Erstellung von Videos per KI derzeit macht. Die Software erzeugt überzeugend wirkende Videos aus einem Text-Prompt, der die Szene grob in ein, zwei Sätzen beschreibt. Zwar will OpenAI die KI noch intensiv testen und Techniken einbauen, die Missbrauch vorbeugen, bevor sie sie freischaltet.

Doch Experten warnen bereits vor den Folgen, die leicht bedienbare Werkzeuge wie Sora haben könnten: „Die KI-Videogeneratoren werden höchstwahrscheinlich für politische Zwecke missbraucht werden, indem sie schneller und einfacher Deepfakes ermöglichen“, sagt Sabrina Heike Kessler, vom Institut für Kommunikationswissenschaft und Medienforschung der Universität Zürich.

Der KI-Videogenerator Sora platzt in ein Superwahljahr

Der aktuelle Fortschritt in der KI fällt in ein internationales Superwahljahr. Neben den drei Landtagswahlen in Sachsen, Thüringen und Brandenburg finden Europawahlen und im November die Wahl des nächsten US-Präsidenten statt. Schon die Wahl Trumps zum Präsidenten im Jahr 2016 soll mithilfe von fortgeschrittenen digitalen Methoden gewonnen worden sein, etwa die gezielte Wählerbeeinflussung mithilfe von psychologischen Profilen von Nutzern sozialer Medien.

Sie haben Feedback? Schreiben Sie uns an info@riffreporter.de!