Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Technologie
Gefährliche Deepfakes: Unterschätzen wir das Missbrauchspotential?

Gefährliche Deepfakes: Unterschätzen wir das Missbrauchspotential?

Toni Gau | 21.06.19

Durch das Internet sind schon diverse Fälschungen viral gegangen und sorgten für Aufruhr, doch diese neue AI könnte den Deepfake-Bogen überspannen.

Zurzeit arbeiten Forscher des Max Planck Instituts für Informatik an der Princeton University an einer neuen AI, welche Deepfakes auf eine ganz neue Ebene heben könnte. Die Software analysiert die Transcripts eines Videos und kann anhand dieser das von einer Person Gesagte verändern. Die künstliche Intelligenz ist fähig die Mundbewegungen einer Person zu verändern und im Satz bestehende Worte auszutauschen, zu entfernen oder ganz neue Sätze zu bilden, in derselben Stimmlage der Person im Video, wie The Verge berichtet. Die Forscher scheinen mit ihren bisherigen Fortschritten zufrieden, doch stellt sich die Frage, ob sie die davon ausgehende Gefahr nicht sehen – oder ist diese gar nicht vorhanden?

Wie funktioniert die Technologie?

Um die Verfälschung stattfinden zu lassen, bedient sich die AI diverser Techniken. Zunächst werden die im Video gesprochenen Phoneme isoliert, wobei Phoneme hierbei die jeweils kleinsten sprachlichen Einheiten sind. Diese werden dann mit dazugehörigen Visemen, also der Mimik, beziehungsweise der Bewegung des Mundes, in Verbindung gebracht. Abschließend wird ein 3D Modell der unteren Gesichtshälfte anhand dieser zwei erstellt. Das ist natürlich nur die einfache Erklärung dazu, der tatsächliche Prozess dahinter ist wesentlich komplexer. Eine exakte Erklärung samt Beispielen findet man in diesem Video:

Veröffentlicht wurde diese Software bisher noch nicht, doch arbeitet Adobe bereits an einer öffentlichen Variante namens „VoCo“, mit der die Bearbeitung solcher Videos so einfach erfolgen soll, wie die von Bildern.

Wie realistisch ist die Fälschung?

Bei Tests ließen sich bisher 60 Prozent aller Befragten täuschen, 40 Prozent erkannten die Fälschung, wobei hierzu gesagt werden muss, dass auch 20 Prozent die Originale für Fälschungen hielten. Sofern solch eine Befragung erfolgt, achten die Teilnehmenden natürlich wesentlich schärfer auf mögliche Verfälschungen und sind dem Wahrheitsgehalt des Videos sehr skeptisch gegenüber, wodurch die Ergebnisse nicht vollkommen repräsentativ sind. Ebenfalls muss dazu gesagt werden, dass die AI noch nicht fehlerfrei funktioniert und somit noch nicht perfektioniert wurde. Es braucht 40 Minuten an Videomaterial um eine erfolgreiche Analyse bereitzustellen. Ebenso können Störungen der Mimik, wie das Berühren des Gesichts mit der Hand, die Analyse vollkommen entwerten und somit nutzlos machen. Des Weiteren trifft auch das Replizieren des Gesprochenen noch auf Probleme, sodass dieses teils nicht authentisch klingen mag. Die Stimmlage lässt sich ebenso nicht verändern, wodurch auch die dahinterstehende Emotion unveränderlich ist. Vor allem die Audioqualität jedoch macht bisher große Fortschritte. Es bleibt eine Frage der Zeit, bis diese Fehler korrigiert werden und somit mittels der Software ein wirklich authentischer Deepfake erstellt werden kann.

Der erste Deepfake ging schon viral

Nichtsdestotrotz wurden mittels dieser Technologie schon erste Personen hereingelegt. Auf Instagram ging ein Video viral, in welchem Mark Zuckerberg seine Macht eingesteht. Das Video ist Teil eines sozialkritischen Kunstprojekts des israelischen Startups Canny-AI, doch ist es authentisch genug, als dass eine Vielzahl von Nutzern den Deepfake für glaubwürdig erachteten und somit das Image vom Facebook-Gründer weiter ankratzen konnte.

https://www.instagram.com/p/ByaVigGFP2U/?utm_source=ig_embed

Inhalte wie diese verbreiten sich im Internet wie ein Waldbrand und sind mal mehr, mal weniger schädlich. Schließlich gibt es auch humoristische Beispiele wie vom Neo Magazin Royale, das ein Video von Yanis Varoufakis verbreitete, wie er der deutschen Politik den Mittelfinger zeigte – wobei hierbei darüber zu debattieren gilt, wie harmlos der vom Magazin gestartete #Varoufake tatsächlich war. Was für einen Eindruck derartige Deepfakes haben können, zeigen beide Videos allemal. Allerdings gibt es natürlich auch lustige Beispiele. Kürzlich erst ging ein Video viral, in dem der von Kit Harrington gespielte Jon Snow aus Game of Thrones sich für die achte Staffel entschuldigte, welche unter Fans größtenteils schlechte Kritiken erhielt.

Lässt sich die Gefahr regulieren?

Wenn bereits vergleichsweise harmlose Deepfakes wie die eben genannten für Furore sorgen, lässt sich nur ausmalen was geschieht, wenn Politiker viral gehen, denen über AI Worte in den Mund gelegt werden, die sie nicht gesagt haben. Die Forscher seien sich angeblich der Gefahr bewusst.

Although methods for image and video manipulation are as old as the media themselves, the risks of abuse are heightened when applied to a mode of communication that is sometimes considered to be authoritative evidence of thoughts and intents. We acknowledge that bad actors might use such technologies to falsify personal statements and slander prominent individuals.

Die zur Regulierung gegebenen Vorschläge sind allerdings nur wenig beruhigend. Durch Kontext und Watermarks soll angegeben werden, dass es sich beim Video um ein Deepfake handelt. Die Problematik dabei ist klar: Der Kontext wird bei Zurschaustellung im Internet oftmals ignoriert und auch Watermarks lassen sich in der Regel mühelos entfernen. Die von der AI ausgehende Gefahr lässt sich also nicht angemessen regulieren und könnte dementsprechend für großen Aufruhr sorgen, der sich nicht angemessen nachvollziehen lässt.

Die Forscher geben ebenso an, dass die sich in Entwicklung befindende Technologie auch viele Vorteile hätte. So könnte vor allem die Filmbranche an dieser Technologie profitieren, um misslungene Takes ganz einfach am Computer beheben zu können. Im Vergleich zu den dahinterstehenden Gefahren scheint dies jedoch nur ein sehr schwacher Trost zu sein.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*