Ein KI-Chatbot hat in einer Facebook-Gruppe Tipps zur Zubereitung von Giftpilzen gegeben, die lebensgefährlich sein können. Der Fall verdeutlicht, dass Sprachmodelle nach wie vor große Risiken bergen.
In einer beliebten Facebook-Gruppe für Pilzsammler sorgte der KI-Chatbot „FungiFriend“ kürzlich für Aufregung. Denn der Bot lieferte Tipps zur Zubereitung eines Giftpilzes. Ein Mitglied fragte den Bot, wie man den Pilz „Sarcosphaera coronaria“ zubereiten könne. Die Art ist dafür bekannt, Arsen anzureichern und führt im schlimmsten Fall zum Tod.
Der Bot empfahl, den Pilz in Butter zu sautieren oder ihn Suppen hinzuzufügen, was ein großes Risiko für unerfahrene Pilzsammler darstellt. Die Situation zeigt die Gefahren, die mit dem Einsatz von KI in sensiblen Bereichen wie der Pilzbestimmung einhergehen.
Neue Stellenangebote
Online-Manager / Onlinemarketing-Manager / Social-Media-Manager (m/w/d) UNIGLAS GmbH & Co. KG in Montabaur |
||
Content- & Social Media Manager:in (m/w/d) fischerAppelt in Hamburg |
||
Content Creator Social Media (m/w/d) Erlebnisbauernhof Gertrudenhof GmbH in Hürth |
Pilzexperten warnen davor, dass KI-Systeme bislang nicht in der Lage sind, zwischen essbaren und giftigen Pilzen zuverlässig zu unterscheiden. Doch besonders Anfänger verlassen sich oft auf Tipps in Gruppen, um Ratschläge von erfahrenen Sammlern zu bekommen und gefährliche Fehler zu vermeiden.
KI-Chatbot gibt lebensgefährliche Pilz-Tipps auf Facebook
Facebook-Mutterkonzern Meta hat zuletzt verschiedene KI-Chatbots in spezielle Gruppen integriert. Sicherheitsvorkehrungen gab es offenbar jedoch nur wenige. Experten wie Rick Claypool, ein erfahrener Pilzsammler und Konsumentenschützer, kritisierte das Unternehmen scharf.
Er betonte gegenüber 404 Media, dass Neulinge, die oft in der Gruppe nach Rat suchen, einem besonders hohen Risiko ausgesetzt seien. Problematisch ist zudem, dass die KI häufig die erste Option ist, die Nutzer angezeigt bekommen, wenn sie Fragen stellen möchten.
Das fördert die Nutzung des Bots statt des direkten Austauschs mit anderen Gruppenmitgliedern. Ein weiteres Problem: Viele trauen sich vermutlich nicht, „dumme“ Fragen in der Gruppe zu stellen und wenden sich deshalb lieber an die KI – was im schlimmsten Fall lebensgefährlich enden könnte.
Gerade unerfahrene Nutzer sind gefährdet
Während erfahrene Sammler die Gefahren einschätzen können, sind unerfahrene Nutzer gefährdet, sich auf unzureichende Informationen der KI zu verlassen. Claypool beschreibt, dass viele Sammler die Gruppen nutzen, um Bilder direkt vom Pilzfundort aus zu teilen.
Der direkte Austausch in der Gruppe ermöglicht eine Korrektur, sofern ein Nutzer fehlerhafte Informationen teilt. Bei KI-gesteuerten Chats fehlt diese Korrekturfunktion, was in sensiblen Bereichen wie der Pilzbestimmung schwerwiegende Folgen haben kann.
Auch interessant:
- Roboter erkennen menschliche Berührungen – ohne künstliche Haut
- Selbstheilendes Stromnetz: Künstliche Intelligenz soll Blackouts vermeiden
- KI-Lücke: Künstliche Intelligenz sorgt für eine noch tiefere „digitale Kluft“
- KI als Richter: Die Vorteile und Nachteile von Künstlicher Intelligenz in der Justiz