Neuerdings beantwortet die Google-Suche Wissensfragen häufig mit einer KI-generierten Antwort. Die klingt so stimmig, dass der Besuch von Webseiten gar nicht mehr nötig zu sein scheint. Und obwohl alle wissen, dass ChatGPT&Co. halluzinieren, überprüft hierzulande nur gut ein Viertel der Nutzer die Ergebnisse. Das ist fatal, denn falsche Antworten sind nicht etwa selten.
Hier ein Beispiel von heute, ich fragte Google: Welche 10 Pflanzen eignen sich für sandige Böden?So so! Wir haben sandigen Boden, aber Brennesseln wachsen nur rund um den Kompost, wo es schattig und der Boden äußerst nährstoffreich ist.
Dass die Google-KI die Brennessel als „Zeigerpflanze für sandige Böden“ listet, könnte falscher garnicht sein! Es ist auf geradezu typische Weise falsch, denn in den als Quellen angegebenen Webseiten (die immerhin noch rechts von der Antwort angezeigt werden), handelt zwar eine Seite von Zeigerpflanzen, aber Brennessel wird dort korrekt als Anzeiger für stickstoffreiche Böden genannt. Google schüttelt sich da halt irgendwas „statistisch“ zusammen, wie es die „Large Language Modells (LLMs)“ nun mal recht häufig machen, die eigentlich zu Unrecht „KI“ genannt werden.
Frage ich speziell nach der Brennessel als Zeigerpflanze, antwortet Google richtig:Wer jetzt vermutet, ich hätte mehrere Testfragen gestellt, um ein falsches Ergebnis vorzeigen zu können, liegt falsch: Es war die allererste Testfrage, absichtlich zu einem Thema, über das ich schon viel weiß.
Halluzinationen sind SEHR HÄUFIG!
Auch beruflich erstelle ich Texte über Pflanzen (Haus- und Gartenpflanzen, Pflegetipps etc.) und nutze zur Recherche durchaus KI, meist Perplexity, über das ich auch Zugriff auf Googles Gemini, Claude 3.7 und ChatGPT habe. Falsche Ergebnisse – mitten drin in den richtigen! – sind extrem häufig. Dass ich sie erkenne, liegt an wirklich langer Erfahrung mit der Recherche über Pflanzen aller Art und nicht zuletzt an 20 Jahren Gartenpraxis, eigene Zimmer- und Balkonpflanzen inklusive. Ich sag dann gerne mal „Prüfe das, das kann nicht stimmen!“. Das macht Perplexity dann auch und entschuldigt sich recht nett, wenn es – wieder mal! – voll daneben lag.
Hier seht Ihr eine aktuelle Statistik über die Häufigkeit von Halluzinationen (= netterer Begriff für SCHROTT!) quer über die verschiedenen KI/LLM-Modelle:
Bis zu 40 Prozent (!) falsche Ergebnisse sollten allen zu denken geben, die diesen Auswurf ungeprüft übernehmen, womöglich erneut auf Webseiten und Blogs veröffentlichen. Dort lesen die KIs das dann wieder zwecks „Schulung“ ein und die ganzen Unstimmigkeiten werden zur neuen „Wahrheit“. Ein Elend!
Wie seht Ihr das? Nutzt Ihr KIs und traut Ihr den Ergebnissen?
***
Siehe auch:
LLMs statt Links: Das offene Netz stirbt
„ChatGPT und AI Overviews lösen die Websuche ab. Das bedroht nicht nur Google, sondern auch viele Medien.“
23. Mai 2025 um 12:52
Hallo Claudia,
ja, das mit dem Halluzinieren ist unglaublich nervtötend – selbst wenn man in den Prompts ausdrücklich sagt, dass nicht halluziniert werden soll und stattdessen gesagt werden soll, wenn die KI etwas nicht beantworten kann, passiert es trotzdem… ich ärgere mich da regelmäßig mit herum, wenn ich KI beruflich für Anfragen wie „Liste die 10 relevantesten News der letzten 14 Tage aus den Bereichen X, Y und Z auf“ nutze. Selbst wenn ich explizit um die Nennung von Quellen bitte, fantasiert ChatGPT sich da irgendetwas zusammen – teilweise versucht er mir Meldungen unterzujubeln, die zwei Jahre alt sind, und die dazu angegebene URL sieht dann zwar erstmal richtig aus, existiert aber gar nicht auf der angegebenen Seite. Meckert man, entschuldigt sich die KI ganz blumig – und baut den nächsten Bockmist.
Ich nutze KI gerade mehr zum Geradeziehen von Formulierungen, gerade in anderen Sprachen… aber was Fakten angeht, trau ich dem kein bisschen über den Weg. Da bin ich schneller, wenn ich selber recherchiere.
Liebe Grüße
Anne
23. Mai 2025 um 17:34
Ich nutze KIs gerne, entweder für Grafiken oder auch mal für Texte. Als so eine Art Ideengeber, also als Werkzeugt. Dabei habe ich sehr schnell gelernt, prinzipiell nichts zu glaube, ohne eigene Recherche. Allerdings gilt das auch für normale Suchergebnisse bei Google. Denn auf den verlinkten Seiten kann genauso Unsinn stehen. Einer KI blind zu vertrauen, halte ich für sehr gefährlich.