Kampf gegen Fake News
YouTube weitet Funktion gegen Deepfakes aus

YouTube will künftig stärker mehr gegen Deepfakes vorgehen.
YouTube will künftig stärker mehr gegen Deepfakes vorgehen.
© Mr. Tempter/Shutterstock.com
YouTube führt ein KI-gestütztes System ein, das gefälschte Deepfakes erkennen soll. So funktioniert es.

Die Videoplattform YouTube reagiert auf die zunehmende Verbreitung von KI-generierten Täuschungsvideos und erweitert ihr Schutzsystem gegen sogenannte Deepfakes. Künftig sollen auch Politiker, Regierungsvertreter und Journalisten spezielle Werkzeuge nutzen können, um manipulierte Videos mit ihrem eigenen Erscheinungsbild schneller aufzuspüren und entfernen zu lassen. Das plant YouTube.

Kern des neuen Schutzmechanismus ist ein System zur sogenannten "Likeness Detection". Dabei handelt es sich um eine KI-gestützte Technologie, die Videoinhalte auf Gesichter bestimmter Personen untersucht. Wird ein potenzieller Treffer erkannt, kann die betroffene Person das Video prüfen und gegebenenfalls eine Löschung beantragen.

Das Verfahren erinnert an das bekannte Content-ID-System von YouTube, das eigentlich zur Erkennung urheberrechtlich geschützter Inhalte entwickelt wurde. Während Content ID etwa Musik oder Filmausschnitte identifiziert, analysiert die neue Funktion vor allem die visuelle Ähnlichkeit von Gesichtern in Videos. Dadurch lassen sich KI-generierte Deepfakes entdecken, bei denen etwa das Gesicht einer Person künstlich in ein anderes Video eingefügt wird.

Pilotprojekt für besonders exponierte Berufsgruppen

Zunächst wird die Funktion im Rahmen eines Pilotprogramms eingeführt. Zugriff erhalten ausgewählte Politiker, politische Kandidaten, Regierungsmitglieder sowie Journalisten. Diese Gruppen gelten als besonders anfällig für Deepfake-Angriffe, da manipulierte Videos ihre Glaubwürdigkeit beschädigen oder politische Debatten beeinflussen können.

Die Teilnehmer müssen ihre Identität zunächst verifizieren. Dazu ist beispielsweise ein offizielles Ausweisdokument sowie ein Video erforderlich, mit dem die Plattform die reale Person eindeutig identifizieren kann. Laut YouTube sollen diese Daten ausschließlich zur Nutzung des Tools dienen und nicht zum Training von KI-Modellen verwendet werden.

Löschanträge werden nicht automatisch akzeptiert

Auch wenn Betroffene verdächtige Inhalte melden können, bedeutet ein Treffer nicht automatisch die Entfernung eines Videos. YouTube prüft jeden Antrag anhand seiner Richtlinien, insbesondere im Hinblick auf Datenschutz, Meinungsfreiheit sowie Ausnahmen für Satire oder Parodien. Entsprechend kann es vorkommen, dass ein Video trotz Ähnlichkeit mit einer realen Person online bleibt.

Nach Angaben des Unternehmens waren in früheren Tests nur wenige Löschanträge nötig. Viele erkannte Inhalte stellten sich als harmlose oder sogar positive Nutzungen von KI heraus, etwa kreative Bearbeitungen ohne Täuschungsabsicht. Dennoch betrachtet YouTube das System als präventive Maßnahme gegen potenziell schädliche Fälschungen.

Deepfakes als wachsende Herausforderung für Plattformen

Der Ausbau des Schutzsystems zeigt, wie stark sich große Plattformen inzwischen mit KI-generierten Inhalten auseinandersetzen müssen. Fortschritte bei generativen KI-Tools ermöglichen es inzwischen selbst Laien, realistisch wirkende Videos zu produzieren, in denen bekannte Personen scheinbar Dinge sagen oder tun, die nie passiert sind.

Gerade im politischen Kontext oder im Journalismus kann ein solches Video schnell große Reichweite erzielen und öffentliche Debatten beeinflussen. Aus diesem Grund fordern Experten und Gesetzgeber zunehmend strengere Regeln für den Umgang mit Deepfakes sowie klarere Mechanismen für deren Entfernung.

Mit der Ausweitung seiner Erkennungstechnologie versucht YouTube nun, zumindest besonders exponierten Personen bessere Möglichkeiten zu geben, gegen solche Manipulationen vorzugehen. Ob und wie effektiv diese Maßnahmen langfristig sind, dürfte sich jedoch erst zeigen, wenn Deepfakes weiterhin an Qualität und Verbreitung zunehmen.

SpotOnNews

PRODUKTE & TIPPS

Kaufkosmos