Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Digitalpolitik
WhatsApps Verschlüsselung ermöglicht Kinderpornographie in Gruppen

WhatsApps Verschlüsselung ermöglicht Kinderpornographie in Gruppen

Niklas Lewanczik | 21.12.18

Zwei israelische NGOs haben ermittelt, dass WhatsApp-Gruppen zur Verbreitung von Kinderpornographie beitragen. Die Prüfmechanismen sind mangelhaft.

Die Ende-zu-Ende-Verschlüsselung bei der populären Messenger App WhatsApp soll dafür sorgen, dass privat ausgetauschte Informationen für andere Parteien schwer zugänglich bleiben. Nicht einmal die App selbst hat nach eigener Aussage eine Möglichkeit, um die Inhalte einzusehen. Das haben sich jedoch kriminelle Gruppen zunutze gemacht und in Chat-Gruppen die Verbreitung von Kinderpornographie gefördert. Dabei hätten einige Gruppen selbst leicht entdeckt und entfernt werden können.

Gruppenchats bei WhatsApp fördern Kinderpornographie

Es ist eine ungeheuerliche Entdeckung; und doch lässt sie sich erklären. Die NGOs Screen Savers und Netivei Reshe aus Israel haben eine Untersuchung zu WhatsApp durchgeführt und herausgefunden, dass bei der App mit ihren gut 1,5 Milliarden Nutzern Chat-Gruppen missbraucht werden, um dort für kinderpornographische Kreise zu werben. Dazu werden beispielsweise Links integriert, die als Einladung gelten, um Ringen beizutreten, bei denen Bilder, Videos etc. mit kinderpronographischem Material geteilt werden. Dafür wird der Schutz der Ende-zu-Ende-Verschlüsselung als Deckmantel instrumentalisiert. Viele der Gruppen sind aktiv, wie TechCrunch nach einer Durchsicht des Materials und einer weiteren Analyse herausfand. Und das, obwohl die Gruppen selbst mitunter alles andere als unauffällig sind.

Gruppennamen wie „Children 💋👙👙“, „videos cp“, letzteres ist ein Akronym für Child Pornography, oder gar „child porn only no adv“ und „child porn xvideos“ tauchen bei einem näheren Blick auf. Gefunden wurden die Namen mit der App-Suche „Group Links for Whats“ von LisaStudio. Das Startup AntiToxin, das sich gegen Kindsmissbrauch stark macht, gibt einen Screenshot von solchen Gruppen wieder.

Kinderpornographie-Gruppenchats bei WhatsApp, © AntiToxin

Während einzelne Nachrichten nun hinter der Verschlüsselung bei WhatsApp, die automatisch stattfindet, verborgen bleiben, hätten die expliziten Gruppen durchaus gefunden und entfernt werden können. Dabei gibt es allerdings ein Problem.

Die Prüfung der Inhalte bei WhatsApp hat Nachholbedarf

Legale Pornographie im Kontext von angemessenem Adult Content ist bei WhatsApp erlaubt. Doch ganz anders liegt der Fall bei Kinderpornographie. WhatsApp hat nun in den letzten zehn Tagen knapp 130.000 Accounts gesperrt, weil diese die Richtlinien gegen Kindsmissbrauch verletzt hatten. Ein Statement des Unternehmens bei TechCrunch sagt aus:

WhatsApp has a zero-tolerance policy around child sexual abuse. We deploy our most advanced technology, including artificial intelligence, to scan profile photos and images in reported content, and actively ban accounts suspected of sharing this vile content. We also respond to law enforcement requests around the world and immediately report abuse to the National Center for Missing and Exploited Children. Sadly, because both app stores and communications services are being misused to spread abusive content, technology companies must work together to stop it.

Der Ansatz stimmt, allerdings kommt er in diesem Fall erneut als Nachtrag auf Entdeckungen von problematischer Social Media-Nutzung. Das Problem sehen die NGOs und TechCrunch in einem unzureichenden Prüfmechanismus bei WhatsApp. Zwar hat Facebook als Mutterunternehmen die Zahl seiner Mitarbeiter zur Inhaltsprüfung stark erhöht. Doch WhatsApp operiert halbautonom. Und neben den automatisierten Prüfoptionen stehen lediglich 300 Mitarbeiter bereit, um eine umfassende Moderation der riesigen App zu stemmen. Nur dass das nicht genug sein kann, wie die neuesten Erkenntnisse zeigen. Denn obwohl WhatsApp die Strafverfolgung im Kontext von Ende-zu-Ende-verschlüsselten Nachrichten ernst nimmt:

Wir überprüfen, verifizieren und beantworten Anfragen von Strafverfolgungsbehörden sorgfältig nach den geltenden Gesetzen und Richtlinien, und priorisieren Dringlichkeitsanfragen,

ist eine proaktive Prüfung zumindest nicht gänzlich wirkungsvoll. Das untermauert auch das Startup AntiToxin, das angibt in WhatsApp-Gruppen 1.300 Bilder und Videos von Kindern im sexualisierten Kontext entdeckt zu haben.

Die Untersuchung: Vieles wird verbannt, manches nicht gefunden

Im Juli 2018 starteten die NGOs ihre Untersuchung bei WhatsApp, nachdem sie von einem Nutzer über kinderpornographisches Material bei der App informiert worden waren. Innerhalb von 20 Tagen wurden daraufhin über zehn explizite Gruppen katalogisiert. In der Folge wurde Jordana Cutler, Facebooks Head of Policy kontaktiert. Sie lehnte ein Treffen jedoch ab und demnach wandten sich die NGOs an die israelische Polizei; gaben Facebook ihren Bericht aber nicht preis.

Bei der Untersuchung kamen mehrere unangemessene Gruppen zutage, Quelle TechCrunch

Inzwischen arbeiten WhatsApp und Facebook daran, diese Gruppen zu löschen und die Nutzer zu verbannen.

Keeping people safe on Facebook is fundamental to the work of our teams around the world. We offered to work together with police in Israel to launch an investigation to stop this abuse,

gibt ein Facebook-Sprecher an. Dennoch wurde mit den Gruppen bereits Schaden angerichtet, kriminelle Akte über WhatsApp vollzogen. Denn bei den grundlegenden Prüfungen der Inhalte können zwar Automatismen einen Abgleich mit Fotodatenbanken durchführen, der mitunter zur Entdeckung von Gruppen im Kontext von Kinderpornographie steht. Oft braucht es jedoch eine manuelle Prüfung, um diese Gruppen ausfindig zu machen. Doch dafür fehlte bisher genügend Personal. Alle nicht verschlüsselten Informationen wie Nutzerfotos, Gruppenfotos oder Informationen zu Gruppen werden manuell untersucht. Im Falle eines Verstoßes gegen die Richtlinien und wenn es sich speziell um Kinderpornographie als Grund handelt, werden diese Nutzer lebenslang von WhatsApp verbannt. Dazu kommt es immer wieder. Trotzdem bleiben zahlreiche solcher Gruppen unentdeckt, die dann das Feature zum Teilen von Links nutzen, welche wiederum zu Material von sexuellem Kindsmissbrauch führen. Als Zentrum der Diskussion erweist sich hierbei auch die Frage, welchen Stellenwert die Ende-zu-Ende-Verschlüsselung haben darf.

Ende-zu-Ende-Verschlüsselung als ethisches Problem

Die Art der Ende-zu-Ende-Verschlüsselung zeigt en miniature, was die Datenschutzdebatte im digitalen Raum ausmacht. Hier werden ausgetauschte Daten nur für die teilnehmenden Parteien sichtbar – diesen Vertrauensvorschuss gewähren wir WhatsApp an der Stelle. Bei der App heißt es entsprechend:

Schutz der Privatsphäre und Sicherheit sind in unseren Genen. Deshalb haben wir Ende-zu-Ende-Verschlüsselung. Deine Nachrichten, Fotos, Videos, Sprachnachrichten, Dokumente, Statusmeldungen und Anrufe sind davor geschützt, in die falschen Hände zu fallen, wenn sie Ende-zu-Ende verschlüsselt sind. Die Ende-zu-Ende-Verschlüsselung von WhatsApp stellt sicher, dass nur du und die Person, mit der du kommunizierst, lesen kann, was gesendet wurde, und niemand dazwischen, nicht einmal WhatsApp.

Nun kann dieser Schutz aber missbraucht werden, weshalb kritische Stimmen sich dafür aussprechen, dass auch diese Datenübermittlung einer Überwachung unterstehen muss. In Australien wurde jüngst ein Gesetz verabschiedet, nach dem Polizei und Geheimdienst mit einem speziellen Untersuchungsbeschluss auch derart verschlüsselte Nachrichten einsehen können. Die Debatte darum kennt jedoch ihr Für und Wider auf beiden Seiten. Ein erhöhter Schutz der Privatsphäre bedeutet auch für kriminelle Tendenzen mehr Möglichkeiten. Mehr Überwachung steht einem freien und privaten Austausch gewissermaßen entgegen.

WhatsApp steht weiter hinter der grundsätzlich begrüßenswerten Ende-zu-Ende-Verschlüsselung. Man fordert von den Geräteherstellern einen implementierten Scan, der das Gerät auf illegale Inhalte prüft. Das dürfte von diesen aber wiederum schwierig zu legitimieren sein. So bleibt für WhatsApp und andere Plattformen der bestmögliche Schritt, mehr in manuelle Prüfung zu investieren und die automatisierte weiter zu optimieren.Das ist mindestens dann akut, wenn man das Werbeumfeld integer gestalten möchte. Und WhatsApp möchte sich für Ads bekanntlich öffnen, könnte aber Probleme bekommen, wenn nicht nur unseriöse, sondern hochkriminelle Inhalte das Image schädigen.

Eine kriminell motivierte Nutzung von Social Media und Messenger Apps wird nie ausbleiben. Dennoch darf der Ruf nach proaktiveren Maßnahmen laut werden. Zu oft reagieren die großen Player erst im Nachgang einer Publikation auf deutliche Probleme. Und wer sich als größtes Social-Imperium etabliert, hat auch eine soziale Verantwortung zu tragen. Dass das keine Priorität zu genießen scheint, könnte schließlich zum Ende der Social Media dieser Zeit beitragen.

Lest hier den Bericht der NGOs aus Israel, bereitgestellt von TechCrunch.

Child Exploitation On Whats… by on Scribd

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*