Als Google ankündigte, Suchergebnissen in den USA KI-Zusammenfassungen vorzuschalten, sorgten sich Websites, dass weniger Nutzer kommen werden. Doch die Überblicke haben ein ganz anderes Problem.
Google-Suche: Fehler in KI-Überblicken lassen Netz lachen

Seit Google in den USA seine Suchmaschine umfassend mit KI-Übersichten ergänzt hat, verbreiten sich im Internet peinliche bis verstörende Fehler der Software. Ein Nutzer veröffentlichte beispielsweise die Empfehlung, den Käse auf einer Pizza mit ungiftigem Klebstoff zu befestigen. Laut Screenshots behauptete die Suchmaschine in den KI-Antworten auch, dass Hunde in der Basketball-Liga NBA und der Football-Liga NFL gespielt hätten und dass Barack Obama der erste muslimische Präsident der USA gewesen sei.
Die mit Hilfe Künstlicher Intelligenz erstellten Zusammenfassungen – in den USA «AI Overviews» genannt – sollen den Nutzern schneller eine direkte Antwort auf ihre Fragen geben, statt ihnen eine Liste von Weblinks zu präsentieren. Mehrere Start-ups wollen mit Hilfe von KI-Antworten gegen die Dominanz von Google bei der Websuche antreten. Der Internet-Konzern schwenkt aber auch selbst auf diesen Kurs ein. Kurze Antworten auf Fakten-Fragen gab es in der Suchmaschine über den Links schon lange. Jetzt sind es aber zum Teil Texte mit mehreren Absätzen.
Die Funktion soll bis zum Ende des Jahres auch in anderen Ländern eingeführt werden. Viele Website-Betreiber und Medien sind besorgt, dass Google durch die KI-Zusammenfassungen weniger Nutzer zu ihnen führen wird und ihr Geschäft darunter leiden wird. Google argumentiert, dass es sogar mehr Datenverkehr zu den Quellen für Informationen gibt, die in den Übersichten erscheinen. Wie es den anderen dabei ergeht, ist jedoch bisher unklar.
Welches Problem gibt es?
Die breite Einführung der Funktion offenbarte nun aber ein ganz anderes Problem: Die KI-Software scheint in vielen Fällen seriöse Informationen nicht von Scherzen oder Satire unterscheiden zu können. So fanden sich als Quellen für einige besonders alberne Behauptungen Spaß-Posts auf Online-Plattformen oder Artikel der Satire-Website «The Onion» – wie etwa die Behauptung, dass Geologen empfehlen, einen kleinen Stein pro Tag zu essen. Eine Google-Sprecherin sagte dem Technologieblog «The Verge» am Donnerstag, die Fehler gingen «allgemein auf sehr ungewöhnliche Nachfragen zurück und entsprächen nicht dem, was die meisten Leute erleben». Diese «vereinzelten Beispiele» würden verwendet, um das Produkt zu verbessern.
Google wurde bereits im Februar im Netz verspottet, weil ein KI-Programm Bilder nicht-weißer Nazi-Soldaten und nicht-weißer amerikanischer Siedler erzeugte. Der Konzern erklärte, dass es versäumt habe, Ausnahmen für solche Fälle zu programmieren, in denen Diversität definitiv unangebracht ist. Daraufhin stoppte Google vorübergehend die Generierung von Bildern durch Gemini.








