ChatGPT hat die Bing-Suche auf den Kopf gestellt. Doch für Microsoft hat der KI-Chatbot offenbar zu viele Gefühle gezeigt. Deshalb begrenzt das Unternehmen künftig die Anzahl der Anfragen.
Erst Anfang Februar hat Microsoft die KI-Software ChatGPT in seine Suchmaschine Bing integriert. Doch nach etlichen Gefühlsausbrüchen, muss der US-Konzern die KI-Suche nun an eine etwas kürzere Leine nehmen.
Dafür begrenzt Microsoft die Zahl der Suchanfragen künftig auf 50 pro Tag und fünf pro Sitzung. Denn „sehr lange Chat-Sitzungen“ seien in der Lage, das „Chat-Modell im neuen Bing“ zu verwirren.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media Manager (m/w/d) in der Nähe von Rosenheim Schön Klinik Vogtareuth GmbH & Co. KG in Vogtareuth |
||
Social Media Advertising Manager (w/m/d) dm-drogerie markt GmbH + Co. KG in Karlsruhe, hybrid |
Microsoft passt ChatGPT bei Bing an
Microsoft begründet die Änderung mit bereits erfassten Daten. Demnach finde die „überwiegende Mehrheit“ der Nutzer:innen ihre gesuchten Antworten innerhalb von fünf Runden. Eine Runde bezeichne dabei ein Gespräch, das eine Anfrage sowie eine Antwort von Bing enthalte.
Nur in ungefähr einem Prozent der Chat-Konversationen im neuen Bing gebe es mehr als 50 Nachrichten. Künftig werden Nutzer:innen nach einer Chat-Sitzung mit fünf Runden aufgefordert, ein neues Thema zu beginnen. Davor müsse jedoch der Kontext einer Chat-Sitzung gelöscht werden, damit der KI-Chatbot nicht verwirrt wird.
Die vorerst eingestellten fünf Runden sind laut Microsoft aber nicht in Stein gemeißelt. Der US-Konzern wolle anhand des User-Feedbacks künftig Anpassungen vornehmen, falls dies nötig wird.
Microsoft hatte bereits vor zu langen Konversationen gewarnt
Microsoft hatte in einem früheren Blog-Beitrag bereits darauf hingewiesen, dass zu lange Chat-Sitzungen keinen guten Einfluss auf die KI hätten. Denn Bing neige dann dazu, sich zu wiederholen oder nicht hilfreiche Antworten zu geben.
Auch könne es sein, dass der Chatbot einen nicht von Microsoft beabsichtigten Ton anschlage. Dies sei vor allem in „langen, ausgedehnten Chat-Sitzungen mit 15 oder mehr Fragen“ der Fall.
Langen Chat-Sitzungen könnten das Modell „verwirren“, da es nicht mehr wisse, welche Frage es gerade beantwortet. Außerdem versuche das Modell manchmal, den ihm entgegen gebrachten Ton zu erwidern.
Bing: ChatGPT fordert Nutzer zur Scheidung auf
Einen Zwischenfall, der Microsoft unter anderem zu den nun erfolgten Änderungen veranlasst haben könnte, hat ein Reporter der New York Times dokumentiert.
Dieser hatte sich mehr als zwei Stunden mit dem in Bing integrierten Chatbot unterhalten. Am Ende behauptete die KI, sich in den Journalisten verliebt zu haben und forderte ihn sogar auf, sich von seiner Frau zu trennen.
Auch interessant: