Eine gesetzlich festgeschriebene Kennzeichnungspflicht für Texte, die durch Künstliche Intelligenz entstanden sind, gibt es bisher nicht. Doch wie soll man dann Texte erkennen, die KI verfasst hat? Eine US-Behörde will hier nun Abhilfe schaffen.
Künstliche Intelligenz findet bereits in vielen Bereichen Anwendung. Ob für die Erstellung von Foto- und Videomaterial oder für das Verfassen längerer Texte. Eine Kennzeichnungspflicht für so entstandene Inhalte gibt es bisher allerdings noch nicht.
Es ist zwar ratsam, diese Inhalte bei Veröffentlichung entsprechend zu kennzeichnen, jedoch nicht gesetzlich vorgeschrieben. Allerdings wird es für Nutzer:innen dann besonders schwer, diese Inhalte zu erkennen.
Neue Stellenangebote
Mitarbeiter*in (m/w/d) für Social Media, Öffentlichkeitsarbeit und Städtepartnerschaft (m/w/d) meinestadt.de in Sachsenheim |
||
Content Creator / Social Media / Marketing (m/w/d) Delitzscher Schokoladenfabrik GmbH in Delitzsch |
||
Content Creator / Social Media / Marketing (m/w/d) Halloren Schokoladenfabrik AG in Delitzsch |
Das National Institute of Standards and Technology will hier allerdings nun Abhilfe schaffen. Denn die US-Behörde hat die Initiative NIST GenAI ins Leben gerufen, die genau für diese Problematik Systeme erschaffen soll.
NIST GenAI soll helfen, KI Texte besser zu erkennen
Mit der Initiative NIST GenAI will die US-Behörde Systeme erschaffen, die es ermöglichen, von KI erzeugte Texte, Bilder und Videos erkennen zu können. Diese sogenannten „Content Authenticity“-Erkennungssysteme sollen es künftig auch ermöglichen, „Deepfake“-Videos zu entlarven.
Ziel ist es unter anderem gefälschte und irreführende Inhalte aufzuspüren, die mit der Hilfe von Künstlicher Intelligenz entstehen.
Um dies zu erreichen will NIST nach eigenen Angaben zunächst erst einmal die Fähigkeiten und Grenzen generativer KI-Modelle ausloten. Anhand dieser Bewertungen könne dann die Informationsintegrität gefördert sowie für „die sichere und verantwortungsvolle Nutzung digitaler Inhalte“ angeleitet werden.
Bisherige Systeme sind nicht zuverlässig genug
Bisher erhältliche Tools, die genau dies versprechen, sind bisher allerdings nicht zuverlässig genug. Deshalb will NIST für seine Initiative mit Teams aus der KI-Industrie sowie Forschenden zusammenarbeiten.
Diese sind zunächst eingeladen, sogenannte „Generatoren“ von KI-gestützten Inhalten sowie „Diskriminatoren“ einzureichen, die diese Inhalte erkennen können.
Für eine erste Studie müssen die Generatoren dann in der Lage sein, einen Text mit maximal 250 Wörtern zu einem bestimmten Thema zu erstellen. Die Diskriminatoren wiederum müssen erkennen, ob diese Texte von KI oder Menschenhand entstanden sind.
Vom 1. Mai bis zum 1. August ist die Registrierung für die Studie offen. Eine zweite soll im Anschluss folgen, die Ergebnisse erwartet NIST bis Februar 2025.
Zahl der Deepfakes ist drastisch angestiegen
Es ist kaum verwunderlich, dass NIST mit seiner Initiative nun schnell vorankommen will. Denn die Zahl manipulierter Inhalte im Netz steigt kontinuierlich.
Laut dem Weltwirtschaftsforum ist die Zahl der veröffentlichten Deepfakes seit Anfang des Jahres im Vergleich zum gleichen Zeitraum im Jahr 2023 um mehr als 900 Prozent angestiegen.
Auch interessant: