Mit Galactica hat Facebook-Mutterkonzern Meta ein neues Sprachmodell entwickelt, das unter anderem wissenschaftliche Texte zusammenfassen soll. Doch das scheint offenbar nicht wie gewünscht zu funktioniert. Das Unternehmen nahm eine Demo nach nur drei Tagen wieder offline.
Viele Technologie-Konzerne jagend aktuell einem Trend hinterher: der Künstlichen Intelligenz (KI). Denn geht es nach Google, Meta und Co. sollen uns KI-Systeme künftig den Alltag erleichtern. Meta musste nun aber feststellen, dass das nicht immer wie geplant funktioniert.
Das hauseigene Sprachmodell Galactica war aufgrund von technischen Problemen nämlich gerade einmal drei Tagen online. Ähnlich wie andere Systeme basiert es dabei auf einem großen Wortschatz, wobei ein Algorithmus ständig dazu lernt. Dank solcher Modelle schrieben KI-Systeme bereits Bücher oder Zeitungsartikel. .
Neue Stellenangebote
Social Media und Brand Manager (m/w/d NEXTREND GmbH in Flörsheim am Main |
||
Praktikum Social Media (m/w/d) NILO in Meerbusch |
||
Praktikum im Bereich interne Kommunikation und Social Media BOS GmbH & Co. KG in Ostfildern bei Stuttgart |
Meta möchte mit Sprachmodell wissenschaftliche Texte zusammenfassen
Doch dass diese Systeme nicht immer reibungslos funktionieren, musste nun auch Facebook-Mutterkonzern Meta feststellen. Das Unternehmen trainierte sein Sprachmodell Galactacia mit über 48 Millionen wissenschaftlichen Artikeln, Büchern, Vorlesungen, Webseiten und Enzyklopädien. Ziel dabei war es, wissenschaftliche Veröffentlichungen zusammenfassen.
Unter anderem kann das Modell Matheprobleme lösen, Wikipedia-Artikel generieren, Moleküle und Proteine abbilden und wissenschaftlichen Code schreiben. Doch eine Herausforderung überwand Galactica nicht: die Unterscheidung von Fakten und Lügen. Denn erste öffentliche Tests machten deutlich, dass die KI abenteuerliche Texte über Bären im Weltraum erfand.
Galactica: Algorithmus kann Fakten und Lügen nicht unterscheiden
Das Problem dabei ist, dass dem System eine Unterscheidung zwischen Wahrheit und Lüge schwierig fällt. Menschen, die nicht tief in den Themenkomplexen stecken, erhalten wissenschaftliche Papiere, die kaum Wahrheiten enthalten. Gleichzeitig nennt Meta aber Autoren, auf die sich der Algorithmus stützt. Für Laien entstehen somit legitime Texte ohne solides Fundament.
Meta zog daraufhin die öffentliche Version nach gerade einmal drei Tagen zurück und will an den vielen gemeldeten Problemen weiterhin arbeiten. Neben den Lügen, die Galactica verbreitet, lässt sich auch keine Zusammenfassung zu für Meta „problematischen“ Themen generieren – darunter etwa Rassismus und AIDS.
Auch interessant: