Was ist Sora? Die Künstliche Intelligenz hinter den falschen Videos über Kuba

Inhaltsanbieter über Kuba nutzen Sora, die KI von OpenAI, um falsche Videos über die Situation im Land zu erstellen. Überprüfen Sie immer die Quellen, um Fehlinformationen zu vermeiden.

Referenzbild erstellt mit KIFoto © Sora: CiberCuba

In den letzten Wochen sind die sozialen Medien mit angeblich in Kuba aufgenommenen Videos überflutet worden, die erschütternde Szenen oder politische Gerüchte zeigen.

Sin embargo, viele dieser Materialien sind nicht echt: Sie wurden mit Sora, einer von OpenAI entwickelten künstlichen Intelligenz, erstellt, dem gleichen Unternehmen hinter ChatGPT.

Sora ermöglicht es, vollständige Videos aus einer einfachen schriftlichen Beschreibung zu erstellen, ganz ohne Kameras, Schauspieler oder echte Szenen. Das Ergebnis sind digitale Szenen mit Menschen, Orten und Geräuschen, die so realistisch sind, dass sie sich mit echten Aufnahmen verwechseln lassen.

Die zweite Version, Sora 2, hat den Realismus der Bewegungen, Schatten und der Physik von Objekten erheblich verbessert. Sie beinhaltet auch synchronisierten Audio sowie die Möglichkeit, Stimmen, Soundeffekte und sogar echte Gesichter und Stimmen über eine Funktion namens Cameos hinzuzufügen.

OpenAI versichert, dass Sora 2 sich noch in der Testphase befindet und nur in den Vereinigten Staaten und Kanada verfügbar ist, aber ähnliche Werkzeuge kursieren bereits im Internet.

In Kuba haben Seiten und Profile wie Periódico Patria 1892 Videos geteilt, die mit dieser Technologie erstellt wurden und zur Verbreitung falscher Gerüchte beigetragen haben.

Der auffälligste Fall von Falschinformation betraf die . Sie begann am 22. September auf der Seite Ignacio Giménez Cuba und wurde ohne überprüfbare Beweise von Periódico Patria 1892 weiterverbreitet. Ein Parodie-Account von CiberCuba verstärkte die Desinformation mit einer grafischen Montage. Die falsche Krankenhausaufnahme führte bis zu einer angeblichen Verstärkung, die viral ging.

Die Experten warnen, dass solche Inhalte genutzt werden können, um die öffentliche Meinung zu manipulieren und falsche politische Narrative zu schaffen.

Wie man ein von künstlicher Intelligenz erzeugtes gefälschtes Video identifiziert

  • Unnatürliche Bewegungen oder Gesten.
  • Schatten oder Reflexionen, die nicht übereinstimmen.
  • Seltsame Texturen an Händen, Augen oder Hintergründen.
  • Künstliche Stimmen oder ungenaue Lippen-Synchronisation.
  • Im Fall von Sora muss sein Logo erscheinen, aber es gibt neue Werkzeuge, um es zu entfernen.
  • Mangel an zuverlässigen Quellen oder Mitteln, die das Faktum bestätigen.

Teilen Sie falsche Inhalte schwächt nur die Glaubwürdigkeit derjenigen, die nach einem echten Wandel in Kuba streben. Die Wahrheit reicht aus, um das Ausmaß der Krise, die Kuba erlebt, zu zeigen. Hunger, Stromausfälle, Einstürze, Repression und Exodus bedürfen keiner Erfindung. Die Kubaner leiden Tag für Tag darunter, mit überprüfbaren Fakten.

Diffusion von Nachrichten oder manipulierten Videos gibt dem Regime Argumente, um diejenigen zu disqualifizieren, die es anprangern. Daher muss das Engagement immer der Wahrheit gelten. In einem Land, in dem die offizielle Lüge seit mehr als sechs Jahrzehnten die Norm ist, sind Transparenz und Wahrhaftigkeit die mächtigsten Waffen, um die Macht zu entlarven und ihren Sturz zu beschleunigen.

Ante der wachsenden Komplexität der künstlichen Intelligenz ist es wichtiger denn je, sich durch verlässliche Quellen zu informieren und die Informationen zu überprüfen.

Archiviert unter:

CiberCuba-Redaktionsteam

Ein Team von Journalisten, das sich verpflichtet fühlt, über kubanische aktuelle Themen und globale Interessen zu berichten. Bei CiberCuba arbeiten wir daran, wahrheitsgemäße Nachrichten und kritische Analysen zu liefern.