Online-Anonymität für 2 Dollar geknackt: Wie KI Nutzer enttarnt

3 Min. Lesezeit
Artikel

ETH-Forscher zeigen: Large Language Models identifizieren anonyme Accounts für 1 bis 4 Dollar – mit 90 Prozent Genauigkeit. Das ökonomische Fundament der Online-Anonymität ist erschüttert.

Der kostenlose KI-Newsletter
Online-Anonymität für 2 Dollar geknackt: Wie KI Nutzer enttarnt

Die Kosten der Online-Anonymität sind soeben dramatisch gesunken – aus Sicht derjenigen, die Sie enttarnen wollen. Forscher der ETH Zürich haben im Februar 2026 nachgewiesen, dass Large Language Models anonyme Nutzerkonten mit einer Trefferquote von 90 Prozent identifizieren können. Die Kosten pro erfolgreicher De-Anonymisierung: 1 bis 4 US-Dollar.

Simon Lermen und Daniel Paleka demonstrierten in ihrer Studie, dass ein handelsübliches LLM ausreicht, um vermeintlich getrennte digitale Identitäten zusammenzuführen. Das vollständige Experiment über mehrere Tausend Profile verursachte Kosten von weniger als 2.000 Dollar – ein Preis, der De-Anonymisierung erstmals auch für Akteure mit beschränktem Budget attraktiv macht.

Methodik: Vier Schritte zur Enttarnung

Das Verfahren folgt einer strukturierten Pipeline aus vier Phasen:

Extraktion: Das LLM analysiert sämtliche verfügbaren Posts des anonymen Accounts und identifiziert identitätsspezifische Marker. Dazu gehören Schreibstil, Grammatik-Eigenheiten, wiederkehrende Themen, zeitliche Posting-Muster und beiläufig erwähnte biografische Details.

Suche: Aus den extrahierten Informationen generiert das Modell gezielte Suchanfragen für öffentliche Profilplattformen. Semantische Embeddings ermöglichen dabei den Abgleich über unterschiedliche Formulierungen hinweg.

Reasoning: Kandidatenprofile werden systematisch mit dem anonymen Account verglichen. Das LLM bewertet Übereinstimmungen und filtert False Positives durch logische Konsistenzprüfungen.

Kalibrierung: Ein Confidence-Score wird berechnet, der die Zuverlässigkeit des Matches quantifiziert. Nur Treffer oberhalb eines definierten Schwellenwerts gelten als valide Identifikation.

Empirische Resultate: Zwei Testszenarien

Die Forscher prüften ihr System anhand realer Datensätze:

Hacker News / LinkedIn: Beim Matching technisch orientierter Diskussionsprofile mit beruflichen Profilen erreichte das System 68 Prozent Recall bei 90 Prozent Präzision. Anders formuliert: Von 100 tatsächlich zuordenbaren Paaren wurden 68 korrekt identifiziert, und von den vorgeschlagenen Matches waren 90 Prozent korrekt.

Reddit / Netflix: Bei Filmgeschmack-basierten Profilen (mindestens 10 gemeinsame Filmerwähnungen) lag der Recall bei 48 Prozent, ebenfalls bei 90 Prozent Präzision. Die niedrigere Quote reflektiert die geringere Informationsdichte kultureller Präferenzen gegenüber technisch-beruflichen Themen.

Grenzen der Methode

Nicht jeder ist gleichermaßen vulnerabel. Profile mit minimaler digitaler Präsenz, bewusst fragmentierter Identität oder konsequent generischer Ausdrucksweise bleiben schwer zuordenbar. Wie The Verge anmerkte: Satoshi Nakamoto bleibt anonym – nicht wegen technischer Perfektion, sondern wegen extremer Informationsaskese.

Technische Schutzmaßnahmen behalten ihre Wirksamkeit: Ende-zu-Ende-verschlüsselte Messenger wie Signal verhindern weiterhin die Datensammlung, die für solche Analysen erforderlich ist. Das Problem liegt nicht in gebrochener Kryptografie, sondern in der freiwilligen, öffentlichen Preisgabe identitätsspezifischer Informationen über multiple Plattformen hinweg.

Paradigmenwechsel im Bedrohungsmodell

Die Studie markiert einen qualitativen Sprung: De-Anonymisierung wird von einer aufwändigen, spezialisierten Tätigkeit zu einer skalierbaren Standardoperation. Bisher setzten solche Analysen entweder menschliche Expertise oder spezialisierte Algorithmen voraus. LLMs demokratisieren den Zugang zu dieser Fähigkeit.

Für durchschnittliche Nutzer bedeutet das: Die Annahme, verschiedene Online-Identitäten seien durch bloße Nicht-Verknüpfung geschützt, ist obsolet. Anonymität erfordert nun aktive Gegenmaßnahmen – Fragmentierung der Informationen, bewusste Stilvariation, zeitliche Randomisierung oder den Verzicht auf bestimmte Selbstoffenbarungen.

Die ökonomische Schwelle ist gefallen. Was Ihren digitalen Schatten zusammenführt, kostet weniger als ein Fast-Food-Menü.

Behandelte Themen:

DatenschutzNachrichten

Häufig gestellte Fragen

Wie kann KI einen Online-Account de-anonymisieren?
Ein Large Language Model analysiert Posts eines anonymen Accounts und extrahiert identitätsspezifische Mikromuster (Schreibstil, Posting-Zeiten, biografische Details). Anschließend werden diese via semantische Embeddings mit öffentlichen Profilen abgeglichen.
Was kostet De-Anonymisierung durch KI?
Laut der ETH-Zürich-Studie vom Februar 2026 liegen die Kosten bei 1 bis 4 Dollar pro Profil. Das vollständige Experiment über Tausende Profile kostete unter 2.000 Dollar.
Wie zuverlässig ist LLM-basierte De-Anonymisierung?
Beim Matching von Hacker News und LinkedIn erreicht das System 68% Recall bei 90% Präzision. Bei Reddit/Netflix mit mehr als 10 gemeinsamen Filmen: 48% Recall bei 90% Präzision.
Der kostenlose KI-Newsletter