Technologie

Künstliche Intelligenz: Neue Systeme sollen Texte erkennen, die KI verfasst hat

KI Texte erkennen, Künstliche Intelligenz, Technik, Technologie, Artificial Intelligence, AI, KI, Computer, Chat GPT
Adobe Stock / sawitreelyaon
geschrieben von Maria Gramsch

Eine gesetzlich festgeschriebene Kennzeichnungspflicht für Texte, die durch Künstliche Intelligenz entstanden sind, gibt es bisher nicht. Doch wie soll man dann Texte erkennen, die KI verfasst hat? Eine US-Behörde will hier nun Abhilfe schaffen.

Künstliche Intelligenz findet bereits in vielen Bereichen Anwendung. Ob für die Erstellung von Foto- und Videomaterial oder für das Verfassen längerer Texte. Eine Kennzeichnungspflicht für so entstandene Inhalte gibt es bisher allerdings noch nicht.

Es ist zwar ratsam, diese Inhalte bei Veröffentlichung entsprechend zu kennzeichnen, jedoch nicht gesetzlich vorgeschrieben. Allerdings wird es für Nutzer:innen dann besonders schwer, diese Inhalte zu erkennen.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Manager Social Media und digitaler Content (m/w/d)
Bundesverband der Systemgastronomie e.V. in Berlin
Werkstudent:in Events, Social Media Management und Online Marketing
LBD-Beratungsgesellschaft mbH in Berlin

Alle Stellenanzeigen


Das National Institute of Standards and Technology will hier allerdings nun Abhilfe schaffen. Denn die US-Behörde hat die Initiative NIST GenAI ins Leben gerufen, die genau für diese Problematik Systeme erschaffen soll.

NIST GenAI soll helfen, KI Texte besser zu erkennen

Mit der Initiative NIST GenAI will die US-Behörde Systeme erschaffen, die es ermöglichen, von KI erzeugte Texte, Bilder und Videos erkennen zu können. Diese sogenannten „Content Authenticity“-Erkennungssysteme sollen es künftig auch ermöglichen, „Deepfake“-Videos zu entlarven.

Ziel ist es unter anderem gefälschte und irreführende Inhalte aufzuspüren, die mit der Hilfe von Künstlicher Intelligenz entstehen.

Um dies zu erreichen will NIST nach eigenen Angaben zunächst erst einmal die Fähigkeiten und Grenzen generativer KI-Modelle ausloten. Anhand dieser Bewertungen könne dann die Informationsintegrität gefördert sowie für „die sichere und verantwortungsvolle Nutzung digitaler Inhalte“ angeleitet werden.

Bisherige Systeme sind nicht zuverlässig genug

Bisher erhältliche Tools, die genau dies versprechen, sind bisher allerdings nicht zuverlässig genug. Deshalb will NIST für seine Initiative mit Teams aus der KI-Industrie sowie Forschenden zusammenarbeiten.

Diese sind zunächst eingeladen, sogenannte „Generatoren“ von KI-gestützten Inhalten sowie „Diskriminatoren“ einzureichen, die diese Inhalte erkennen können.

Für eine erste Studie müssen die Generatoren dann in der Lage sein, einen Text mit maximal 250 Wörtern zu einem bestimmten Thema zu erstellen. Die Diskriminatoren wiederum müssen erkennen, ob diese Texte von KI oder Menschenhand entstanden sind.

Vom 1. Mai bis zum 1. August ist die Registrierung für die Studie offen. Eine zweite soll im Anschluss folgen, die Ergebnisse erwartet NIST bis Februar 2025.

Zahl der Deepfakes ist drastisch angestiegen

Es ist kaum verwunderlich, dass NIST mit seiner Initiative nun schnell vorankommen will. Denn die Zahl manipulierter Inhalte im Netz steigt kontinuierlich.

Laut dem Weltwirtschaftsforum ist die Zahl der veröffentlichten Deepfakes seit Anfang des Jahres im Vergleich zum gleichen Zeitraum im Jahr 2023 um mehr als 900 Prozent angestiegen.

Auch interessant:

Über den Autor

Maria Gramsch

Maria ist freie Journalistin und technische Mitarbeiterin an der Universität Leipzig. Seit 2021 arbeitet sie als freie Autorin für BASIC thinking. Maria lebt und paddelt in Leipzig und arbeitet hier unter anderem für die Leipziger Produktionsfirma schmidtFilm. Sie hat einen Bachelor in BWL von der DHBW Karlsruhe und einen Master in Journalistik von der Universität Leipzig.

Kommentieren