Können Menschen erkennen, ob Bilder, Texte oder Audiodateien von Menschenhand oder einer KI erstellt wurden? Eine neue Studie zeigt: Viele KI-Inhalte sind so überzeugend, dass wir diese nicht mehr von der Realität unterscheiden können.
Der Bereich Künstliche Intelligenz hat sich in den vergangenen Jahren enorm entwickelt. Mit nur wenigen Klicks können Nutzer:innen sich nicht nur Text, sondern auch Bilder sowie Video- und Audioinhalte erstellen lassen.
Doch ist es möglich, diese KI-generierten Inhalte noch von solche zu unterscheiden, die von Menschenhand erstellt wurden? Eine Online-Umfrage mit rund 3.000 Teilnehmer:innen aus Deutschland, China und den USA hat sich genau dieser Frage angenommen.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Content Creator Social Media (m/w/d) CSU-Bezirksverband Augsburg in Augsburg |
||
Social Media Manager (Fokus: Community Management Supervision) (w/m/d) – befristete Elternzeitvertretung für 18 Monate Yello Strom GmbH in Köln |
Können Menschen KI-Inhalte identifizieren?
Für die Untersuchung haben zahlreiche Forschungseinrichtungen zusammengearbeitet. Neben dem CISPA Helmholtz-Zentrum für Informationssicherheit waren auch die Ruhr-Universität Bochum, die Leibniz Universität Hannover und die TU Berlin beteiligt. Die Forscher:innen haben die Ergebnisse ihrer Studie nun auf dem 45th IEEE Symposium on Security and Privacy in San Francisco vorgestellt.
Zwischen Juni 2022 und September 2022 haben sie in einer Online-Umfrage in Deutschland, China und der USA ihre Daten erhoben. Die Befragten erhielten hierbei nach dem Zufallsprinzip eine der drei Kategorien Text, Bild oder Audio zugeordnet. Dabei wurden 50 Prozent reale und 50 Prozent KI-generierte Medien ausgespielt.
Dabei war die Mehrheit der Studienteilnehmer:innen nicht in der Lage, KI-Inhalte von menschengemachten zu unterscheiden – und das unabhängig von Medium oder Herkunftsland. „Wir sind bereits an einem Punkt angelangt, an dem es für Menschen schwierig, wenn auch noch nicht unmöglich ist, zu erkennen, ob etwas real oder KI-generiert ist“, erklärt Thorsten Holz vom CISPA Helmholtz-Zentrum für Informationssicherheit.
Künstlich erzeugte Inhalte können in vielfältiger Weise missbraucht werden. In diesem Jahr stehen wichtige Wahlen an, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahlen in den USA.
KI-generierte Medien könnten „sehr leicht“ für die Beeinflussung der politischen Meinung benutzt werden. „Ich sehe darin eine große Bedrohung für unsere Demokratie“, gibt Holz zu bedenken.
Ergebnisse sind unabhängig von Bildung oder Herkunft
Für ihre Studie haben die Forscher:innen aber nicht nur zwischen von Menschenhand oder Künstlicher Intelligenz erstellten Inhalten unterscheiden lassen. Auch sozio-biografische Daten, Faktoren wie Medienkompetenz, ganzheitliches Denken, allgemeines Vertrauen, kognitive Reflexion und politische Orientierung haben die Forscher:innen abgefragt.
Es sei überraschend gewesen, so Holz, „dass es nur sehr wenige Faktoren gibt, die erklären können, ob Menschen KI-generierte Medien besser erkennen können oder nicht“.
Selbst über verschiedene Altersgruppen und Faktoren wie Bildungshintergrund, politische Einstellungen oder Medienkompetenz hinweg sind die Unterschiede nicht sehr signifikant.
Das könnte auch für die Sicherheit im Netz ein Problem sein. Denn laut Lea Schönherr vom CISPA Helmholtz-Zentrum für Informationssicherheit könnte so „die nächste Generation von Phishing-E-Mails“ entstehen. Diese könnten dann personalisiert sein, mit einem Text, der perfekt zu den Empfänger:innen passt.
Es sei deshalb wichtig notwendig, weiter zu erforschen, wie Menschen KI-generierte Inhalte erkennen können. Auch automatisierte Fact-Checking-Verfahren seien hier denkbar, so Schönherr.
Auch interessant: