Was für uns ein Eichhörnchen an einem Brunnen ist, ist für eine Künstliche Intelligenz ein Seelöwe. Und eine Kerze auf einem Holztisch wird schnell einmal zum Nagel. Der Grund dafür ist eine optische Täuschung, die durch die Herangehensweise entsteht und Fehler erzeugt.
Wenn wir von einer optischen Täuschung sprechen, kommen wohl in fast jedem Menschen Bilder und Gefühle auf.
Die Gründe für die Emotionen liegen häufig darin begründet, dass unterschiedliche Menschen eine optische Täuschung unterschiedlich wahrnehmen. Das hat natürlich Konfliktpotenzial, weil wir das „andere“ Motiv ja zunächst einmal nicht erkennen.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media und PR Specialist (m/w/d) BeA GmbH in Ahrensburg |
||
Social Media Manager B2B (m/w/d) WM SE in Osnabrück |
Selbstverständlich verfügt eine Künstliche Intelligenz (KI) nicht über menschliche Emotionen. Trotzdem ist ebenfalls möglich, dass eine optische Täuschung eine KI überlistet – und das sogar mit einer sehr hohen Wahrscheinlichkeit.
Eine optische Täuschung der etwas anderen Art
Was es dafür braucht, sind sogenannte „Adversarial Images“ – also gegensätzliche Bilder. Das haben Dan Hendrycks, Jacob Steinhardt und Dawn Song von der Universität Berkeley in Zusammenarbeit mit Kevin Zhao von der University of Washington und Steven Basart von der University of Chicago herausgefunden.
Ihre Ergebnisse haben die fünf Forscher nun veröffentlicht. Neben der Arbeit an sich haben die Wissenschaftler jedoch ebenfalls noch einige der 7.500 Bilder zur Verfügung gestellt, die es geschafft haben, eine Künstliche Intelligenz hereinzulegen.
Warum die Analyse-Variante der KI zum Verhängnis wird
Menschen erkennen auf dem linken Bild sofort ein Eichhörnchen und auf dem rechten Bild sofort eine Libelle. Warum liegt die Erkennungsquote einer KI laut den Forschern nur zwischen zwei und drei Prozent? Was verleitet die Künstliche Intelligenz zu dieser Fehleinschätzung?
Die Antwort liegt in der Analyse-Technik. Derartige Bilder verleiten die Technologie dazu, andere Inhalte zu erkennen. Der Grund dafür ist die übermäßige Abhängigkeit von Farben, Formen, Strukturen und Hintergründen.
Oder anders ausgedrückt: Wenn ein metallener oder schwarzer und länglicher Gegenstand in einer hölzernen Umgebung erscheint, handelt es sich dabei für eine KI sehr wahrscheinlich um einen Nagel. Dass es auch ein Kerzendocht sein kann, ist einfach zu unwahrscheinlich.
Welche Konsequenzen haben diese Fehleinschätzungen?
Grundsätzlich bedeutet die Fehl-Interpretation zunächst einmal, dass es noch Bereiche gibt, in denen wir Menschen der KI dabei helfen müssen, ihre Wissenslücken zu füllen.
Außerdem überwindet nicht jede optische Täuschung jede KI. Viele Systeme sind für spezielle Szenarien ausgelegt – zum Beispiel, um Auffälligkeiten auf Röntgenbildern zu erkennen. Da ist es nur logisch, dass sie in anderen Bereichen ihre Schwächen haben.
Trotzdem ist es selbstverständlich enorm wichtig, die Fehler möglichst überall auszumerzen.
Auch interessant: