Automatisiert Fake-Accounts können ein mächtiges Werkzeug sein, um gezielt Propaganda zu verbreiten. Das gilt vor allem für die Plattform X (ehemals Twitter). Forscher der Ruhr-Universität Bochum haben deshalb eine Methode entwickelt, um solche Konten zu identifizieren.
Forscher der Ruhr-Universität Bochum haben gemeinsam mit Kollegen aus Saarbrücken und Köln untersucht, wie viele KI-generierte Profilbilder es auf X (ehemals Twitter) gibt. Das Ergebnis: Von 15 Millionen analysierten Accounts besaßen 0,052 Prozent ein Profilbild, das mittels Künstlicher Intelligenz erzeugt wurde.
„Das klingt im ersten Moment nicht viel, aber solche Bilder sind merklich präsent auf Twitter“, so Erstautor Jonas Ricker von der Ruhr-Universität Bochum. Und weiter: „Unsere Analysen geben zudem Hinweise darauf, dass es sich bei vielen der Accounts um Fakeprofile handelt, die unter anderem politische Propaganda oder Verschwörungstheorien verbreiten.“
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Senior Social Media Manager (m/w/d) SportScheck GmbH in München |
||
Content- / Online-Marketing Manager (m/w/d) Marketing-Strategien im Bereich Social Media as-Schwabe GmbH in Eutingen, Bayern |
Fake-Accounts auf Twitter
Die Forscher der Ruhr-Universität Bochum arbeiteten für ihre Analyse mit Kollegen des Helmholtz-Zentrums für Informationssicherheit CISPA in Saarbrücken und des Leibniz-Instituts für Sozialwissenschaften GESIS in Köln zusammen. Am 1. Oktober 2024 präsentierten sie auf dem 27th International Symposium on Research in Attacks, Intrusions and Defenses (RAID) in Padua ihre Arbeit. Jonas Ricker dazu:
Mithilfe von KI kann man heutzutage täuschend echt aussehende Bilder erzeugen, die in den Sozialen Medien dafür missbraucht werden können, um scheinbar reale Accounts zu erstellen.
Bislang war jedoch kaum untersucht, wie verbreitet solche KI-generierten Profilbilder sind. Die Forscher trainierten deshalb eine KI darauf, reale von KI-generierten Bildern zu unterscheiden. Mit diesem System untersuchten sie automatisiert die Profilbilder von circa 15 Millionen X-Accounts.
Accounts, die kein kein Porträtbild als Avatar hatten, schlossen die Forscher aus. Rund 43 Prozent aller Konten verblieben nach diesem Ausschlusskriterium. Das Analyse-Modell klassifizierte 7.723 davon als KI-generiert. Diese Ergebnisse wurden sowohl manuell als auch stichprobenartig überprüft.
Politische Propaganda und Desinformation
Im Anschluss schauten sich die Forscher an, wie sich die Konten mit KI-generierten Bildern im Vergleich zu Accounts mit echten Profilbildern verhielten. Das Ergebnis: Die Accounts mit Fake-Bildern hatten weniger Followern und folgten weniger anderen Konten. Jonas Ricker dazu:
Auffällig war auch, dass über die Hälfte der Fake-Bild-Accounts erst 2023 erstellt worden ist, teils wurden hunderte Accounts in einigen Stunden aufgesetzt – ein Hinweis, dass es sich nicht um echte Nutzerinnen oder Nutzer handelt.
Neun Monate nach ihrer ersten Datenerhebung schauten sich die Forscher an, wie viele von den jeweiligen Accounts noch aktiv waren und stellten fest, dass über die Hälfte der Konten mit KI-generierten Profilbildern gesperrt worden waren. Das sei ein zusätzliches Indiz dafür, dass es sich um Fake-Accounts handelt.
Ein Großteil der Konten hätte zudem im Zusammenhang mit Themen wie Donald Trump, Covid-19 und Impfungen, dem Ukraine-Krieg oder Verlosungen gestanden. „Wir können nur mutmaßen, was dahintersteckt. Aber es ist davon auszugehen, dass einige Accounts erstellt wurden, um gezielt Desinformationen oder politische Propaganda zu verbreiten“, so Ricker.
Auch interessant:
Kommentieren