Halluzination (Künstliche Intelligenz)

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Im Bereich der Künstlichen Intelligenz (KI) ist eine Halluzination (alternativ auch Konfabulation genannt) ein überzeugend formuliertes Resultat einer KI, das nicht durch Trainingsdaten gerechtfertigt zu sein scheint und objektiv falsch sein kann.[1]

Solche Phänomene werden in Analogie zum Phänomen der Halluzination in der menschlichen Psychologie als von Chatbots erzeugte KI-Halluzinationen bezeichnet. Ein wichtiger Unterschied ist, dass menschliche Halluzinationen meist auf falschen Wahrnehmungen der menschlichen Sinne beruhen, während eine KI-Halluzination ungerechtfertigte Resultate als Text oder Bild erzeugt. Prabhakar Raghavan, Leiter von Google Search, beschrieb Halluzinationen von Chatbots als überzeugend formulierte, aber weitgehend erfundene Resultate.[2] Der spezifische Begriff KI-Halluzination kann Computer unangemessen vermenschlichen.

Vorkommen[Bearbeiten | Quelltext bearbeiten]

KI-Halluzinationen erlangten um 2022 parallel zur Einführung bestimmter großer Sprachmodelle (Large Language Model LLM) wie ChatGPT an Bedeutung.[3] Die Nutzer beschwerten sich, dass solche Chatbots oft sinnlos plausibel klingende Zufallslügen in ihren generierten Inhalten einbetteten. Als beispielsweise ChatGPT gebeten wurde, einen Artikel über das letzte Finanzquartal eines bestimmten Unternehmens zu generieren, erstellte dieser Chatbot einen kohärenten Artikel, erfand aber darin enthaltene Finanzzahlen. Nach Fragen über astrophysikalische Magnetfelder behauptete ChatGPT fälschlicherweise, dass Magnetfelder von Schwarzen Löchern durch die extrem starken Gravitationskräfte in ihrer Nähe erzeugt werden. In Wirklichkeit hat ein Schwarzes Loch aufgrund des No-Hair-Theorems kein Magnetfeld.[4] Analysten betrachten häufige Halluzinationen als ein großes Problem der LLM-Technik.[5]

Ursachen[Bearbeiten | Quelltext bearbeiten]

Forscher haben unerwünschte Halluzinationen als ein statistisches Phänomen bezeichnet oder Halluzinationen auf unzureichende Trainingsdaten zurückgeführt. Einige Kenner glauben, dass bestimmte falsche KI-Antworten, die von Menschen als Halluzinationen im Fall der Objekterkennung eingestuft werden, tatsächlich durch die Trainingsdaten gerechtfertigt sein können, oder sogar, dass eine KI die richtige Antwort gibt, welche die menschlichen Gutachter nicht sehen. Zum Beispiel kann ein umstrittenes Bild, das für einen Menschen wie ein gewöhnliches Bild eines Hundes aussieht, in Wirklichkeit für die KI Muster enthalten, die in authentischen Bildern nur beim Betrachten einer Katze auftreten würden. Die KI erkennt reale visuelle Muster, welche für Menschen nicht zu erkennen sind. Diese Erkenntnisse wurden jedoch von anderen Forschern in Frage gestellt. Zum Beispiel wurde eingewandt, dass die Modelle zu oberflächlichen Statistiken tendieren können, was dazu führt, dass Training bei umstrittenen Themen in realen Szenarien nicht robust ist.

Halluzination wurde als statistisch unvermeidliches Nebenprodukt eines jeden unvollkommenen generativen Modells erkannt, das darauf trainiert ist, die Trainingswahrscheinlichkeit zu maximieren, wie zum Beispiel GPT-3. Ebenfalls können Fehler beim Kodieren und Dekodieren zwischen Text und Repräsentationen Halluzinationen verursachen. KI-Training zur Erzeugung von vielfältigen Antworten kann auch zu Halluzinationen führen. Halluzinationen können ebenfalls auftreten, wenn die KI auf einem Datensatz trainiert wird, bei dem beschriftete Zusammenfassungen trotz ihrer faktischen Genauigkeit nicht direkt in den beschrifteten Daten verankert sind, die angeblich zusammengefasst werden. Größere Datensätze können ein Problem des parametrischen Wissens schaffen (Wissen, das in gelernten Systemparametern fixiert ist), was zu Halluzinationen führt, wenn das System zu selbstsicher sein festgelegtes Wissen nutzt.[6] In Systemen wie GPT-3 generiert eine KI jedes nächste Wort basierend auf einer Sequenz von vorherigen Wörtern (einschließlich der Wörter, die sie selbst während desselben Dialogs zuvor generiert hat), was zu einer Kaskade von möglichen Halluzinationen führt, je länger die Antwort wird.[7]

Vermeidung[Bearbeiten | Quelltext bearbeiten]

Zur Reduktion von KI-Halluzinationen wird zusätzliches aktives Lernen (wie zum Beispiel Bestärkendes Lernen aus menschlich beeinflusster Rückkopplung bei GPT-4) verwendet. Auch hat Google Bard eine neue Funktion eingeführt, mittels welcher Teile im Text orange markiert werden, deren Aussagen unsicher sind.[8] Ob sich jedoch alle erwähnten Probleme lösen lassen, ist fraglich.[9]

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. Craig S. Smith: AI Hallucinations Could Blunt ChatGPT’s Success. In: IEEE Spectrum, 24. März 2023. Abgerufen am 24. September 2023 (englisch)
  2. Google cautions against hallucinating chatbots, report says. Reuters, 11. Februar 2023. Abgerufen am 24. September 2023 (englisch)
  3. Christian J. Meier: Warum die KI so gerne lügt. Süddeutsche Zeitung, 28. März 2023. Abgerufen am 24. September 2023
  4. Marc Zastrow: We Asked ChatGPT Your Questions About Astronomy. It Didn't Go so Well. In: Discover Magazine. Kalmbach Publishing Co. 29. Dezember 2022. Abgerufen am 24. September 2023 (englisch)
  5. Ziwie Ji et al. Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), S. 1–38, 2023
  6. Stephen Casper, Xander Davies et al.: Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback. MIT / Harvard University, 27. Juli 2023. Abgerufen am 24. September 2023 (englisch)
  7. Muru Zhang et al.: How language model hallucinations can snowball. arXiv preprint arXiv:2305.13534, 2023
  8. Google-Chatbot Bard kämpft gegen KI-Halluzinationen, indem es zweifelhafte Textstellen markiert. In: NZZ, 19. September 2023. Abgerufen am 24. September 2023
  9. Gerrit De Vynck: ChatGPT hallucinates. Some researchers worry it isn’t fixable. The Washington Post, 30. Mai 2023. Abgerufen am 24. September 2023 (englisch)