Traut keiner KI: Googles Brennnessel-Flop

| 3 Kommentare

Neuerdings beantwortet die Google-Suche Wissensfragen häufig mit einer KI-generierten Antwort. Die klingt so stimmig, dass der Besuch von Webseiten gar nicht mehr nötig zu sein scheint. Und obwohl alle wissen, dass ChatGPT&Co. halluzinieren, überprüft hierzulande nur  gut ein Viertel der Nutzer die Ergebnisse. Das ist fatal, denn falsche Antworten sind nicht etwa selten.

Hier ein Beispiel von heute, ich fragte Google: Welche 10 Pflanzen eignen sich für sandige Böden?falsches KI-ErgebnisSo so! Wir haben sandigen Boden, aber Brennesseln wachsen nur rund um den Kompost, wo es schattig und der Boden äußerst nährstoffreich ist.

Dass die Google-KI die Brennessel als „Zeigerpflanze für sandige Böden“ listet, könnte falscher garnicht sein! Es ist auf geradezu typische Weise falsch, denn in den als Quellen angegebenen Webseiten (die immerhin noch rechts von der Antwort angezeigt werden), handelt zwar eine Seite von Zeigerpflanzen, aber Brennessel wird dort korrekt als Anzeiger für stickstoffreiche Böden genannt. Google schüttelt sich da halt irgendwas „statistisch“ zusammen, wie es die „Large Language Modells (LLMs)“ nun mal recht häufig machen, die eigentlich zu Unrecht „KI“ genannt werden.

Frage ich speziell nach der Brennessel als Zeigerpflanze, antwortet Google richtig:Wer jetzt vermutet, ich hätte mehrere Testfragen gestellt, um ein falsches Ergebnis vorzeigen zu können, liegt falsch: Es war die allererste Testfrage, absichtlich zu einem Thema, über das ich schon viel weiß.

Halluzinationen sind SEHR HÄUFIG!

Auch beruflich erstelle ich Texte über Pflanzen (Haus- und Gartenpflanzen, Pflegetipps etc.) und nutze zur Recherche durchaus KI, meist Perplexity, über das ich auch Zugriff auf Googles Gemini, Claude 3.7 und ChatGPT habe. Falsche Ergebnisse – mitten drin in den richtigen! – sind extrem häufig. Dass ich sie erkenne, liegt an wirklich langer Erfahrung mit der Recherche über Pflanzen aller Art und nicht zuletzt an 20 Jahren Gartenpraxis, eigene Zimmer- und Balkonpflanzen inklusive. Ich sag dann gerne mal „Prüfe das, das kann nicht stimmen!“. Das macht Perplexity dann auch und entschuldigt sich recht nett, wenn es – wieder mal! – voll daneben lag.

Hier seht Ihr eine aktuelle Statistik über die Häufigkeit von Halluzinationen (= netterer Begriff für SCHROTT!) quer über die verschiedenen KI/LLM-Modelle: 

Bis zu 40 Prozent (!) falsche Ergebnisse sollten allen zu denken geben, die diesen Auswurf ungeprüft übernehmen, womöglich erneut auf Webseiten und Blogs veröffentlichen. Dort lesen die KIs das dann wieder zwecks „Schulung“ ein und die ganzen Unstimmigkeiten werden zur neuen „Wahrheit“. Ein Elend!

Wie seht Ihr das? Nutzt Ihr KIs und traut Ihr den Ergebnissen?

***

Siehe auch:

LLMs statt Links: Das offene Netz stirbt

„ChatGPT und AI Overviews lösen die Websuche ab. Das bedroht nicht nur Google, sondern auch viele Medien.“

Ich freue mich, wenn du Artikel teilst, die du gut findest. Zum Datenschutz: Erst wenn du auf einen dieser Teilen-Buttons klickst, werden Daten an den jeweiligen Dienst übertragen. Mehr dazu unter Menüpunkt "Datenschutz".

Autor: ClaudiaBerlin

Claudia lebt und gärtnert in Berlin und bloggt seit 2005 rund ums naturnahe Gärtnern. Folge dem Blog auf Twitter.com/gartenzeilen - da gibts Lesetipps und allerlei Infos rund um unser tolles Hobby.

3 Kommentare

  1. Hallo Claudia,

    ja, das mit dem Halluzinieren ist unglaublich nervtötend – selbst wenn man in den Prompts ausdrücklich sagt, dass nicht halluziniert werden soll und stattdessen gesagt werden soll, wenn die KI etwas nicht beantworten kann, passiert es trotzdem… ich ärgere mich da regelmäßig mit herum, wenn ich KI beruflich für Anfragen wie „Liste die 10 relevantesten News der letzten 14 Tage aus den Bereichen X, Y und Z auf“ nutze. Selbst wenn ich explizit um die Nennung von Quellen bitte, fantasiert ChatGPT sich da irgendetwas zusammen – teilweise versucht er mir Meldungen unterzujubeln, die zwei Jahre alt sind, und die dazu angegebene URL sieht dann zwar erstmal richtig aus, existiert aber gar nicht auf der angegebenen Seite. Meckert man, entschuldigt sich die KI ganz blumig – und baut den nächsten Bockmist.

    Ich nutze KI gerade mehr zum Geradeziehen von Formulierungen, gerade in anderen Sprachen… aber was Fakten angeht, trau ich dem kein bisschen über den Weg. Da bin ich schneller, wenn ich selber recherchiere.

    Liebe Grüße
    Anne

  2. Ich nutze KIs gerne, entweder für Grafiken oder auch mal für Texte. Als so eine Art Ideengeber, also als Werkzeugt. Dabei habe ich sehr schnell gelernt, prinzipiell nichts zu glaube, ohne eigene Recherche. Allerdings gilt das auch für normale Suchergebnisse bei Google. Denn auf den verlinkten Seiten kann genauso Unsinn stehen. Einer KI blind zu vertrauen, halte ich für sehr gefährlich.

  3. KI ist spannend und manches ist klasse:
    Bilder generieren die unmöglich sind, wie fliegende Elefanten, Texte in sprachlich guter Qualität, Ideen, Anregungen…

    Ich habe mal gefragt, was es über unsere Krone Randegg zu sagen gibt. Spannend war, dass wir ein Hotel-Restaurant betreiben mit sehr alter Tradition. Es stimmt, das Gebäude ist von 1774, wir haben jedoch kein Hotel, nur zwei kleine möblierte Projektwohnungen.
    Das Restaurant mit Abendgeschäft, ist ein Bistrocafe, welches wir ausschließlich tagsüber betreiben, also eben kein klassisches Restaurant.
    Am Ende kam noch der Nachsatz, man könne über den Kontakt auf der Webseite ja nochmal fragen um ganz sicher zu gehen.

    Für mich daher weiterhin, als Inspiration, für manche klare Aufgabe ist KI ganz toll. Aber mal eben glauben, was die KI ausspuckt ist eine ganz schlechte Idee.

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.


TopBlogs.de das Original - Blogverzeichnis | Blog Top Liste