Eigentlich soll Künstliche Intelligenz unsere Welt verbessern. Doch nun setzen immer mehr Kriminelle Tools wie ChatGPT ein, um Betrug zu begehen. Die KI macht Straftaten dabei kinderleicht.
Die Vergangenheit hat uns bereits eines bewiesen: Jede neue Technologie kann uns große Schritte nach vorn bringen und unsere Welt verbessern. Gleichzeitig besteht aber auch das Risiko des Missbrauchs. Im Resultat entstehen dabei teils mächtige Werkzeuge zum Ausüben von Straftaten und Betrug. Das gilt offenbar auch für die Künstliche Intelligenz ChatGPT.
Eigentlich veröffentlichte OpenAI den Algorithmus, um die Welt ein klein wenig besser zu machen und uns zu unterstützen. Doch was Interessierte für Recherchen zu Schulreferaten einsetzen können, ist auch beim Auffinden illegaler Informationen hilfreich. Das macht zumindest ein Bericht von Europol deutlich.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media Manager (m/w/d) in der Nähe von Rosenheim Schön Klinik Vogtareuth GmbH & Co. KG in Vogtareuth |
||
Social Media Advertising Manager (w/m/d) dm-drogerie markt GmbH + Co. KG in Karlsruhe, hybrid |
Straftaten und Betrug: ChatGPT hilft bei der Herstellung von Crack
Denn Kriminelle nutzen den Algorithmus scheinbar, um Anleitungen im Internet zu finden. Neben Plänen für den Bau von Rohrbomben liefert ChatGPT auch Informationen zur Herstellung der Droge Crack. Zwar implementierte OpenAI bestimmte Filtermechanismen in die KI, um das zu vermeiden, dennoch scheinen diese bereits umgehbar zu sein.
Es ist also so einfach wie noch nie an solche illegalen Informationen zu gelangen. Europol betont, dass die Inhalte bereits vorher im Internet verfügbar waren, ChatGPT das Auffinden nun aber deutlich beschleunigt. Die nächste Straftat scheint also nur eine Chatnachricht entfernt.
Ist ChatGPT das ideale Tool für Kriminelle?
ChatGPT scheint auch ein ideales Tool für Betrug zu sein. Denn schauen wir etwa auf Phishing-Angriffe, so lassen sich häufig Betrüger anhand von Rechtschreib- oder Grammatikfehlern überführen. Doch schreibt eine KI eine E-Mail über ein verloren gegangenes Paket oder ein Familienmitglied in Not, kann es schnell schwierig werden.
Was lässt sich also tun? OpenAI sollte dringend die Filtermechanismen optimieren und ein Meldesystem schaffen, mit dem Nutzer Antworten außerhalb des rechtlichen Bereichs melden können. Denn nur so unterminieren immer besser werdende Algorithmen nicht auch unsere Sicherheit.
Auch interessant: