ChatGPT von OpenAI sorgt derzeit für Schlagzeilen. Denn der KI-Chatbot besticht mit präzisen Texten, die sich von menschlichen kaum unterscheiden lassen. Doch das birgt auch Gefahren. Nun bietet OpenAI selbst ein Tool an, das KI-Texte erkennen kann.
ChatGPT ist bereits seit geraumer Zeit in aller Munde. Vor allem weil die KI von OpenAI in der Lage ist, in kurzer Zeit Texte zu schreiben, die sprachlich und inhaltlich so präzise sind, dass sie sich schwer von menschlichen Formulierungen unterscheiden lassen.
Doch ein neues Tool von ChatGPT-Entwickler OpenAI selbst setzt nun genau dort an. Denn das Unternehmen bringt einen Klassifikator auf den Markt, der darauf trainiert ist, zwischen KI und von Menschen geschriebenem Text zu unterscheiden.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media Manager (m/w/d) HomeServe Deutschland Holding GmbH & Co. KG in Frankfurt am Main |
||
Praktikum im Bereich Social Media Governance ab März 2025 Mercedes-Benz AG in Stuttgart |
KI-Texte erkennen: Das ist das Tool von OpenAI
Der sogenannte Classifier ist laut OpenAI ein fein abgestimmtes GPT-Modell, das vorhersagt, wie wahrscheinlich es ist, dass ein Text von einer Vielzahl von Quellen wie ChatGPT generiert wurde.
Für die Überprüfung braucht das Tool derzeit mindestens 1.000 Zeichen, also etwa 150 bis 250 Wörter. User können den Text, den sie checken wollen, einfach in das entsprechende Feld einfügen. Dabei gilt: Je länger der Text, desto geringer die Fehlerquote.
KI-Texte erkennen: OpenAI-Tool nicht ganz genau
Allerdings sei das Tool nicht immer genau: Es könne sowohl KI-generierte als auch von Menschen geschriebene Texte falsch kennzeichnen, so OpenAI. Vor allem, weil Menschen die KI-Texte einfach bearbeiten können, um den Classifier zu umgehen.
Außerdem funktioniert das Tool offenbar schlechter, wenn ein Text von einem Kind geschrieben wurde. Es ist nämlich hauptsächlich auf Texte in englischer Sprache von Erwachsene trainiert. Auch andere Sprachen stellen für die Software deshalb ein Problem dar.
In einem Test erkannte der Classifier etwa nur 26 Prozent der überprüften Texte korrekt als „wahrscheinlich von einer KI geschrieben“. Währenddessen stufte er von Menschen Geschriebenes in neun Prozent der Fälle fälschlicherweise als KI-Text ein.
ChatGPT vor allem in Schulen ein Problem
KI-Texte von ChatGPT sind offenbar vor allem in Schulen ein Problem. OpenAI erklärt zumindest, dass dem Unternehmen bewusst ist, dass die KI-Texte ein wichtiger Diskussionspunkt unter Pädagogen seien.
Das neue Tool soll allerdings nicht nur im Schulalltag Abhilfe schaffen. Die Entwickler:innen gehen davon aus, dass der Classifier beispielsweise auch für Journalist:innen und Desinformationsforscher:innen von Bedeutung sein könnte.
ChatGPT erkennen: Klassifikator von OpenAI hat Verbesserungspotenzial
OpenAI stellt seinen Klassifikator öffentlich zur Verfügung, um Rückmeldungen darüber zu erhalten, ob unvollkommene Werkzeuge wie diese nützlich seien. Die Arbeit an der Erkennung von generierten Texten werde fortgesetzt. Das Unternehmen hoffe, dass es in Zukunft verbesserte Methoden zur Verfügung stellen könne.
Auch interessant:
Hi zusammen, als langjähriger Content Writer beobachte ich die Entwicklung von OpenAIs KI-Texterkennungstool mit gemischten Gefühlen. Die aktuelle Genauigkeit ist noch nicht optimal, was meine Skepsis nährt. (Gibt es aktuell überhaupt ein Tool, das zu 100% funktioniert) Trotzdem kann ich nicht leugnen, dass das immense Potenzial und der kontinuierliche Fortschritt von KI im Content-Bereich mich hoffnungsvoll stimmen. Auf eine spannende Zukunft!