Laut einer aktuellen Studie liefert die Internetsuche über KI-Modelle oft falsche Antworten und nicht existierende Links. Doch warum ist die KI-Suche so unzuverlässig?
Laut einer aktuellen Studie des Tow Center for Digital Journalism liefert die Internetsuche über KI-Modelle oft falsche Antworten. In 60 Prozent der Fälle sind entsprechende Inhalte demnach fehlerhaft oder ungenau. Besonders problematisch sei, dass viele dieser Systeme falsche Quellen zitieren oder gar nicht existierende URLs generieren, die zu fehlerhaften Seiten führen. Das betreffe unter anderem Google Gemini und Grok 3, die in zahlreichen Tests Links bereitstellten, die ins Leere führten.
Warum die KI-Suche oft falsche Antworten liefert
Im Gegensatz zu klassischen Suchmaschinen wie Google oder Bing erstellen KI-Modelle direkte Antworten anstatt einer Liste mit Links. Doch genau dabei kommt es häufig zu Fehlern, da die Systeme oft auf fehlerhafte oder unvollständige Daten zurückgreifen. Ein großes Problem ist das Erfinden von Quellen, bei der KI-Modelle URLs generieren, die gar nicht existieren.
Laut der Studie führten über die Hälfte der überprüften Quellenangaben von Google Gemini und Grok 3 zu nicht existierenden oder defekten Links. Ein Test hat offenbart, dass bei 200 Zitaten von Grok 3 bis zu 154 der Links fehlerhaft waren. Das zeigt: Die KI-Suche liefert oft falsche Antworten, die Nutzer nicht einmal direkt überprüfen können.
Ein weiteres Problem ist, dass KI-Suchmaschinen häufig nicht die Originalquellen zitieren, sondern Syndikatversionen von Artikeln auf Plattformen wie Yahoo News. Dadurch profitieren die eigentlichen Urheber der Artikel kaum von der Verbreitung ihrer Inhalte, da Nutzer nicht auf deren Websites landen.
Verlage stehen deshalb vor einem Dilemma: Wenn sie KI-Crawler blockieren, verlieren sie jegliche Erwähnung in KI-generierten Antworten. Erlauben sie den Zugriff, könnte dies bedeuten, dass KI-Modelle ihre Inhalte nutzen, ohne eine angemessene Gegenleistung zu bieten.
Reaktionen und Ausblick
Technologiekonzerne wie OpenAI und Microsoft haben bereits auf die Studie reagiert – jedoch keine konkreten Lösungen angeboten. OpenAI erklärte, dass das Unternehmen daran arbeitet, durch Links und Zitate den Traffic zu den Originalquellen zu lenken. Microsoft betonte, dass es sich an die Robots Exclusion Protocols halte, die es Website-Betreibern erlauben, Suchmaschinen den Zugriff zu untersagen.
Mark Howard, COO des Time Magazine, sieht das Problem laut Studie ebenfalls kritisch. Er betonte jedoch, dass sich die Technologie noch weiterentwickeln wird. Dennoch fordert er mehr Skepsis gegenüber der kostenlosen KI-Suche und gibt zu bedenken, dass man nicht erwarten könne, dass solche Systeme bereits heute fehlerfrei arbeiten.
Die Studie macht deutlich: KI-Suchmaschinen liefern oft falsche Antworten und sind noch weit von einer verlässlichen Informationsquelle entfernt. Solange sie Fehler machen und falsche Quellen zitieren, sollten Nutzer ihre Ergebnisse immer kritisch hinterfragen und die bereitgestellten Informationen selbst überprüfen.
Auch interessant: