ChatGPT von OpenAI sorgt derzeit für Schlagzeilen. Denn der KI-Chatbot besticht mit präzisen Texten, die sich von menschlichen kaum unterscheiden lassen. Doch das birgt auch Gefahren. Nun bietet OpenAI selbst ein Tool an, das KI-Texte erkennen kann.
ChatGPT ist bereits seit geraumer Zeit in aller Munde. Vor allem weil die KI von OpenAI in der Lage ist, in kurzer Zeit Texte zu schreiben, die sprachlich und inhaltlich so präzise sind, dass sie sich schwer von menschlichen Formulierungen unterscheiden lassen.
Doch ein neues Tool von ChatGPT-Entwickler OpenAI selbst setzt nun genau dort an. Denn das Unternehmen bringt einen Klassifikator auf den Markt, der darauf trainiert ist, zwischen KI und von Menschen geschriebenem Text zu unterscheiden.
Neue Stellenangebote
Mitarbeiter*in (m/w/d) für Social Media, Öffentlichkeitsarbeit und Städtepartnerschaft (m/w/d) meinestadt.de in Sachsenheim |
||
Content Creator / Social Media / Marketing (m/w/d) Delitzscher Schokoladenfabrik GmbH in Delitzsch |
||
Content Creator / Social Media / Marketing (m/w/d) Halloren Schokoladenfabrik AG in Delitzsch |
KI-Texte erkennen: Das ist das Tool von OpenAI
Der sogenannte Classifier ist laut OpenAI ein fein abgestimmtes GPT-Modell, das vorhersagt, wie wahrscheinlich es ist, dass ein Text von einer Vielzahl von Quellen wie ChatGPT generiert wurde.
Für die Überprüfung braucht das Tool derzeit mindestens 1.000 Zeichen, also etwa 150 bis 250 Wörter. User können den Text, den sie checken wollen, einfach in das entsprechende Feld einfügen. Dabei gilt: Je länger der Text, desto geringer die Fehlerquote.
KI-Texte erkennen: OpenAI-Tool nicht ganz genau
Allerdings sei das Tool nicht immer genau: Es könne sowohl KI-generierte als auch von Menschen geschriebene Texte falsch kennzeichnen, so OpenAI. Vor allem, weil Menschen die KI-Texte einfach bearbeiten können, um den Classifier zu umgehen.
Außerdem funktioniert das Tool offenbar schlechter, wenn ein Text von einem Kind geschrieben wurde. Es ist nämlich hauptsächlich auf Texte in englischer Sprache von Erwachsene trainiert. Auch andere Sprachen stellen für die Software deshalb ein Problem dar.
In einem Test erkannte der Classifier etwa nur 26 Prozent der überprüften Texte korrekt als „wahrscheinlich von einer KI geschrieben“. Währenddessen stufte er von Menschen Geschriebenes in neun Prozent der Fälle fälschlicherweise als KI-Text ein.
ChatGPT vor allem in Schulen ein Problem
KI-Texte von ChatGPT sind offenbar vor allem in Schulen ein Problem. OpenAI erklärt zumindest, dass dem Unternehmen bewusst ist, dass die KI-Texte ein wichtiger Diskussionspunkt unter Pädagogen seien.
Das neue Tool soll allerdings nicht nur im Schulalltag Abhilfe schaffen. Die Entwickler:innen gehen davon aus, dass der Classifier beispielsweise auch für Journalist:innen und Desinformationsforscher:innen von Bedeutung sein könnte.
ChatGPT erkennen: Klassifikator von OpenAI hat Verbesserungspotenzial
OpenAI stellt seinen Klassifikator öffentlich zur Verfügung, um Rückmeldungen darüber zu erhalten, ob unvollkommene Werkzeuge wie diese nützlich seien. Die Arbeit an der Erkennung von generierten Texten werde fortgesetzt. Das Unternehmen hoffe, dass es in Zukunft verbesserte Methoden zur Verfügung stellen könne.
Auch interessant: