Technologie
Diese Spuren verraten dich: Wie KI anonyme Profile im Netz entlarvt

Diese Spuren verraten dich: Wie KI anonyme Profile im Netz entlarvt

Larissa Ceccio | 09.03.26

Anonym im Netz? Eine aktuelle Studie zeigt, dass große Sprachmodelle (LLMs) Accounts unter Pseudonym immer häufiger den dahinterstehenden Personen zuordnen können. Schon Schreibstil, Interessen oder kleine Details können Profile enttarnen – mit Risiken für Privatsphäre und Whistleblower.

Ein Reddit-Alt, ein anonymer LinkedIn-Kommentar oder ein pseudonymer Thread auf Hacker News galten lange als vergleichsweise sichere Wege, unerkannt im Netz zu agieren. Doch die Studie Large-scale online deanonymization with LLM agents, an der unter anderem Forschende der ETH Zürich und der University of Washington beteiligt waren, zeigt, wie leistungsfähig große Sprachmodelle inzwischen bei der Zuordnung pseudonymer Accounts werden.

Wer also noch glaubt, dank eines Nicknames wirklich anonym zu bleiben, könnte sich täuschen. Denn was Menschen beim Lesen oft übersehen, kann KI inzwischen systematisch erkennen: Muster in Sprache, Interessen oder biografischen Details lassen sich automatisiert analysieren und über Plattformen hinweg miteinander verknüpfen. Über die Analyse berichten unter anderem The Verge und The Guardian. In der Studie untersuchten die Forschenden, wie LLM-Agents öffentlich verfügbare Informationen auswerten und Profile plattformübergreifend miteinander abgleichen können. Die Forschung wurde von der ETH Zürich geleitet, wo auch die zentralen Experimente durchgeführt wurden. Der KI-Sicherheitsforscher Nicholas Carlini von Anthropic unterstützte das Team zusätzlich als wissenschaftlicher Berater.



OpenAI erreicht neues User- und Abo-Hoch:
Stoppt CancelChatGPT den Höhenflug?

Sam Altman, CEO von OpenAI, vor blau-grünem Hintergrund.
© Steve Jurvetson, Wikimedia Commons, CC BY 2.0 und OpenAI via Canva


Dein Schreibstil ist dein digitaler Fingerabdruck

Die Untersuchung zeigt, dass zur Identifizierung weder Hacks noch Datenlecks nötig sind. Oft reichen bereits Informationen, die Nutzer:innen selbst veröffentlichen. Die in der Studie eingesetzten LLMs analysieren Texte aus anonymen Accounts und suchen im Netz nach wiederkehrenden Mustern. Dabei erkennen sie typische Signale, die Rückschlüsse auf eine Person zulassen können, etwa:

  • Schreibstil
  • Wortwahl und Satzstruktur
  • Interessen und Fachbegriffe
  • biografische Hinweise aus Posts

Diese Informationen werden anschließend mit Profilen auf anderen Plattformen abgeglichen. Ziel ist es, mögliche Identitäten hinter pseudonymen Accounts zu identifizieren. Die Ergebnisse sind bemerkenswert. In Tests konnte das System Accounts mit einer Trefferquote von 68 Prozent bei 90 Prozent Präzision den dahinterstehenden Personen zuordnen. Grundlage waren Datensätze aus Plattformen wie Reddit, Hacker News und LinkedIn sowie Interview-Transkripte.

Ein Beispiel aus der Studie zeigt, wie die Methode funktioniert. Ein anonymes Konto berichtet etwa über schulische Schwierigkeiten und erwähnt Spaziergänge mit seinem Hund Biscuit im Dolores Park. Die KI durchsucht anschließend andere Plattformen nach Profilen mit ähnlichen Details und konnte so den anonymen Account @anon_user42 zuordnen. Voraussetzung dafür ist jedoch, dass irgendwo im Netz öffentliche Informationen existieren, etwa ein Profil mit Klarnamen, persönliche Posts oder andere Hinweise, die eine Verbindung ermöglichen. Erst durch solche übereinstimmenden Details kann die KI mehrere Profile derselben Person miteinander verknüpfen. Je mehr Inhalte ein anonymer Account veröffentlicht, desto leichter lässt er sich enttarnen.

Diagramm aus einer Studie zeigt, wie LLM-Agents biografische Hinweise aus anonymen Posts extrahieren, im Internet nach passenden Profilen suchen und mögliche Identitäten miteinander abgleichen.
Grafik aus der Studie: So verknüpfen LLMs anonyme Accounts mit realen Profilen, © ETH Zürich

Wer heute im Netz anonym bleiben möchte, müsste seine Accounts deshalb deutlich stärker voneinander trennen. Mögliche Gegenmaßnahmen wären etwa:

  • bewusst unterschiedliche Schreibstile verwenden
  • unterschiedliche Accounts konsequent voneinander trennen
  • keine biografischen Details teilen
  • wiederkehrende Interessen oder Themen nicht plattformübergreifend posten
  • keine spezifischen Ortsangaben oder persönlichen Routinen erwähnen
  • unterschiedliche Nutzungszeiten oder Aktivitätsmuster verwenden
  • keine identischen Emojis, Formulierungen oder Redewendungen nutzen

Große Sprachmodelle können solche Analysen erstmals kostengünstig skalieren. Was früher Stunden oder sogar Tage manueller Recherche erforderte, lässt sich heute automatisiert durchführen. Gleichzeitig bleiben die Kosten niedrig. Laut der Studie kann eine Analyse lediglich ein bis vier US-Dollar pro Profil kosten. Die KI-Forscher Simon Lermen und Daniel Paleka erklärten, dass LLMs damit „eine grundlegende Neubewertung dessen erzwingen könnten, was im Internet noch als privat gilt“.

Die Risiken der KI-Deanonymisierung: Betrug, Fehlzuordnungen und Druck auf Whistleblower

Die KI-gestützte Überwachung entwickelt sich zu einem schnell wachsenden Forschungsfeld, das bei Informatiker:innen und Datenschutzexpert:innen zunehmend Besorgnis auslöst. Große Sprachmodelle können enorme Mengen öffentlich zugänglicher Informationen über Personen sammeln und miteinander verknüpfen. Für Menschen wäre eine solche Analyse kaum zu bewältigen, für KI lässt sie sich dagegen automatisieren und in großem Maßstab durchführen. Noch handelt es sich allerdings nicht um ein perfektes Überwachungssystem. Die Experimente wurden mit kuratierten Datensätzen durchgeführt, das zugrunde liegende Paper ist bislang nicht peer-reviewed und die Methode wurde nicht mit realen anonymen Accounts im offenen Internet getestet.

Potenzielle Vorteile solcher Technologien liegen vor allem im Bereich der Analyse und Moderation digitaler Kommunikation. KI-Systeme könnten etwa helfen, koordinierte Desinformationskampagnen aufzudecken, Bot-Netzwerke zu identifizieren oder orchestrierte Einflussversuche schneller zu erkennen. Gerade für Plattformen, die mit Manipulation, Fake Accounts oder organisierten Kampagnen kämpfen, könnte eine solche Analyse ein nützliches Werkzeug sein.

Der KI-Forscher Simon Lermen weist jedoch darauf hin, dass öffentlich zugängliche Informationen über Bürger:innen bereits heute „direkt für Betrug missbraucht werden“ könnten. Ein Beispiel ist Spear Phishing. Dabei sammeln Angreifer:innen gezielt Informationen über eine Person – etwa aus Social-Media-Profilen, Kommentaren oder Forenbeiträgen – und nutzen diese, um besonders glaubwürdige Betrugsnachrichten zu erstellen. Die Nachricht wirkt dann so, als käme sie von einer vertrauten Person oder einem bekannten Unternehmen und enthält häufig einen Link oder eine Bitte um persönliche Daten. Durch KI wird dieser Betrugsprozess deutlich einfacher. Große Sprachmodelle können Informationen über eine Person automatisch zusammentragen und daraus personalisierte Nachrichten formulieren.

Ein weiteres Risiko sind mögliche Fehlzuordnungen. Der Informatikprofessor Peter Bentley vom University College London warnt, dass KI-Systeme Accounts auch falsch miteinander verknüpfen könnten. Im schlimmsten Fall könnten Menschen dadurch für Aussagen verantwortlich gemacht werden, die sie nie getätigt haben.

Besonders kritisch ist die Entwicklung zudem für Menschen, die bewusst unter Pseudonym kommunizieren. Dazu zählen etwa Aktivist:innen, Journalist:innen oder Mitarbeitende, die Missstände anonym öffentlich machen wollen. Wenn sich solche Accounts durch KI leichter einer realen Person zuordnen lassen, könnten Betroffene schneller identifiziert und unter Druck gesetzt werden, etwa durch Belästigung im Netz, berufliche Konsequenzen oder rechtliche Schritte.



41 Mega-Websites analysiert:
Wie die Suche wirklich funktioniert und warum Google dominiert

Gebäudewand mit Google-Logo, Himmel darüber
© Mark Stuckey – Unsplash via Canva


Wie sieht die Zukunft der Online-Anonymität im KI-Zeitalter aus?

Online-Anonymität verschwindet durch solche Technologien nicht sofort. Sie wird jedoch deutlich fragiler. Wer über verschiedene Plattformen hinweg ähnliche Interessen, Geschichten oder Schreibweisen teilt, hinterlässt einen digitalen Fingerabdruck. Genau diese digitalen Spuren können große Sprachmodelle heute schneller erkennen, analysieren und miteinander verknüpfen als Menschen.

Das hat zwei Seiten. Einerseits könnten solche Systeme Plattformen dabei helfen, Manipulation im Netz besser zu erkennen. Probleme wie Hate Speech, Bot-Netzwerke oder koordinierte Desinformation beschäftigen Social-Media-Dienste seit Jahren. Besonders schwer zu kontrollieren sind sogenannte Sockpuppet Accounts, also mehrere Profile, die von einer Person gesteuert werden, um Diskussionen gezielt zu beeinflussen oder künstlich Reichweite zu erzeugen. Wenn Systeme Schreibmuster, Inhalte und biografische Hinweise analysieren, lassen sich möglicherweise orchestrierte Debatten, Astroturfing-Kampagnen oder koordinierte Einflussversuche schneller identifizieren. Gerade für Community-Plattformen und Diskussionsnetzwerke wie Reddit, X, Threads oder Discord wäre das relevant.

Gleichzeitig zeigt die Forschung, wie leicht sich digitale Spuren im Netz zusammenführen lassen – und wie schnell sie für Betrug missbraucht oder für Datenschutzangriffe eingesetzt werden könnten. Mit immer leistungsfähigeren KI-Systemen wird Online-Anonymität zunehmend brüchiger. In Zukunft dürfte sie weniger eine Frage des Nicknames sein, sondern vielmehr davon abhängen, wie konsequent digitale Spuren getrennt werden.

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*