Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Social Media Marketing
Harmloses Feature? Snapchat setzt mit neuer Funktion auf Deepfake-Technologien

Harmloses Feature? Snapchat setzt mit neuer Funktion auf Deepfake-Technologien

Aniko Milz | 10.12.19

Snapchat launcht ein Feature, das es Nutzern ermöglicht, ihr Gesicht in Videos einzubetten. Deepfake-Technologien sind seit Längerem in der Kritik, doch Snapchats Interpretation könnte gut angenommen werden.

Neue Technologien stellen uns seit Jahren vor Herausforderungen. Meist geht es dabei um Fragen wie „Was sollte Technik können und wo muss eine Grenze gezogen werden?“, „Ab wann ist Technik uns voraus?“, „Werden wir von Robotern ersetzt?“ und nicht zuletzt „Wie sieht es mit dem Schutz unserer Daten aus?“. Auch Deepfake-Technologien, über die wir bereits seit Monaten berichten, weisen uns auf diese Schwierigkeiten hin. Nicht zuletzt hatte Twitter sich dafür ausgesprochen, gegen Deepfakes auf der Plattform vorzugehen.

Dass Deepfakes ein Problem darstellen können, sollte jedem klar sein, der bereits ein gut gemachtes und überzeugendes Deepfake-Video von beispielsweise Mark Zuckerberg, Barack Obama oder Kim Kardashian gesehen hat. Mithilfe von Apps, wie zum Beispiel dem chinesischen Zao, war es vergleichsweise einfach, ein Deepfake Video von sich selbst oder anderen zu erstellen. Snapchat bringt jetzt ein eigenes Feature heraus, das genau das noch einfacher macht, dabei aber bei Weitem nicht so realistisch wirkt: „SnapchatCameos“ wird derzeit in Frankreich getestet und soll am 18. Dezember global ausgerollt werden, wie TechCrunch berichtet.

Das kann die neue Deepfake-Funktion

Für Cameos werden Nutzer lediglich angewiesen, ein Selfie von sich zu machen und einen eher männlichen oder eher weiblichen Körper auszuwählen. Bisher sind 150 kurze Videos verfügbar, unter denen ausgewählt werden kann. Dabei suchen Nutzer nach Kategorien und Szenen mit Suchbegriffen, wie bei GIFs. Die Technologie setzt anschließend den Kopf des Users in das gewünschte Video ein und verändert die Mimik entsprechend den Bewegungen des Schauspielers. Diese Kurzvideos können schließlich mit Freunden im Chat geteilt werden und können als Erweiterung von Bitmojis verstanden werden. Unter deren Button ist das neue Feature auch zu finden.

© TechCrunch, Snapchat

Angriff gegen Instagram?

Die Cameos können zwar auch gespeichert und an anderer Stelle geteilt werden, doch grundsätzlich gehören sie in den Chat der App – und das aus gutem Grund. Nachdem Instagram und WhatsApp die Story-Funktion kopiert und recht bis sehr erfolgreich eingebaut haben, bleibt der Chat auf Snapchat eine der wichtigsten Funktionen. Diese von dem der anderen Plattformen abzugrenzen, könnte demnach die Hauptintention hinter der Cameo-Funktion sein. Hierbei muss Snapchat selbst aufpassen, nicht als Nachahmer dazustehen, schließlich sind die Technologie und Idee dahinter nichts Neues.

Hauptsache, ihr habt Spaß

Anders als beispielsweise Zao, scheinen die Cameos nicht den Anspruch zu haben, wirklich realistische Deepfakes zu produzieren, was in Hinblick auf die schlechte Presse über diese in letzter Zeit wohl eine weise Entscheidung sein dürfte. Bei Snapchats Interpretation von Deepfakes geht es nicht darum, politische Statements und Co. zu fälschen, sondern vielmehr um Entertainment und Spaß und genau das könnte die Nutzer ansprechen.

Monetarisierung

Bisher ist der Chat-Bereich von Snapchat relativ unmonetarisiert, doch mit Cameos bietet sich eine hervorragende Möglichkeit, das zu ändern. Ähnlich wie die AR Lenses, die von Unternehmen erstellt wurden, könnten gebrandete Kurzvideos für Cameos angeboten werden. Je kreativer Unternehmen hierbei werden, desto sicherer würden diese von Usern angenommen und geteilt. Wir warten gespannt auf den globalen Rollout und wie Snapchat-Nutzer aus aller Welt die neue Funktion annehmen.

© TechCrunch, Snapchat

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*