Zum Inhalt springen

Halluzination (Künstliche Intelligenz)

aus Wikipedia, der freien Enzyklopädie
KI-Halluzination auf die Frage nach einer Seilbahn im Siebengebirge: Eine „Rheinseilbahn“ oder „Schwebebahn“ gibt es dort nicht. Selbst nach Anforderung einer gpx-Datei zur Verifizierung blieb Qwen dabei und erzeugte fiktive Angaben.

Eine KI-Halluzination ist im Bereich der Künstlichen Intelligenz (KI) eine Halluzination (alternativ auch Konfabulation genannt) in Form eines überzeugend formulierten Resultats, das nicht durch Trainingsdaten gerechtfertigt zu sein scheint und objektiv falsch sein kann.[1]

Solche Phänomene werden in Analogie zum Phänomen der Halluzination in der menschlichen Psychologie als von Chatbots erzeugte KI-Halluzinationen bezeichnet. Ein wichtiger Unterschied ist, dass menschliche Halluzinationen meist auf falschen Wahrnehmungen der menschlichen Sinne beruhen, während eine KI-Halluzination ungerechtfertigte Resultate als Text oder Bild erzeugt. Prabhakar Raghavan, Leiter von Google Search, beschrieb Halluzinationen von Chatbots als überzeugend formulierte, aber weitgehend erfundene Resultate.[2] Der spezifische Begriff KI-Halluzination kann Computer unangemessen vermenschlichen.

Es gibt jedoch auch KI-Halluzinationen, welche Forscher zur Entdeckung bisher unbekannter Varianten erwiesenermaßen vorhandener Realitäten gezielt nutzen.[3] So wird beispielsweise generative KI in der Arzneimittelforschung verwendet, um spezifisch trainierte KI-Modelle zur Vorhersage möglicher neuer, therapeutisch vielversprechender Moleküle auf Grundlage existierender, wirksamer Moleküle einzusetzen. Diese Vorhersagen werden anschließend im Labor bezüglich realer Wirksamkeit getestet und sowohl positive wie auch negative Resultate wiederum ins KI-Modell eingespeist.[4] Diese wissenschaftlichen Anwendungen von KI beruhen nicht auf willkürlichen Sprachkonstruktionen von Chatbots und/oder Internetdaten, sondern auf wissenschaftlich erhärteten Erkenntnissen.[3]

Das Bild zeigt via ChatGPT eine Antwort auf die Frage, was eine „Kotstube“ sei
Ein großes Sprachmodell erzeugt eine fundiert klingende Definition eines obskuren Wortes.

KI-Halluzinationen erlangten um 2022 parallel zur Einführung bestimmter großer Sprachmodelle (Large Language Models, LLM) wie ChatGPT an Bedeutung.[5] Die Nutzer beschwerten sich, dass solche Chatbots oft sinnlos plausibel klingende Zufallslügen in ihren generierten Inhalten einbetteten. Als beispielsweise ChatGPT gebeten wurde, einen Artikel über das letzte Finanzquartal eines bestimmten Unternehmens zu generieren, erstellte dieser Chatbot einen kohärenten Artikel, erfand aber darin enthaltene Finanzzahlen. Nach Fragen über astrophysikalische Magnetfelder behauptete ChatGPT fälschlicherweise, dass Magnetfelder von Schwarzen Löchern durch die extrem starken Gravitationskräfte in ihrer Nähe erzeugt würden. In Wirklichkeit hat ein Schwarzes Loch aufgrund des No-Hair-Theorems kein Magnetfeld.[6] Analysten betrachten häufige Halluzinationen als ein großes Problem der LLM-Technik.[7]

Forscher haben unerwünschte Halluzinationen als ein statistisches Phänomen bezeichnet oder Halluzinationen auf unzureichende Trainingsdaten zurückgeführt. Da große Sprachmodelle kein vollständiges Wissen der Welt besitzen, wird fehlendes Wissen interpoliert bzw. konfabuliert.[8] Diese Eigenschaft von Sprachmodellen ermöglicht es, Anfragen an das Modell auf eine kreative Weise zu beantworten, anstatt ausschließlich auf vorhandenes Wissen zurückgreifen zu können. Allerdings führt dies auch dazu, dass eine Anfrage des Benutzers, auf die eine objektiv richtige Antwort existiert, dem Modell aber unbekannt ist, auf eine Weise beantwortet wird, die stimmig erscheinen kann, jedoch nicht den Tatsachen entspricht.

Einige Kenner glauben, dass bestimmte falsche KI-Antworten, die von Menschen als Halluzinationen im Fall der Objekterkennung eingestuft werden, tatsächlich durch die Trainingsdaten gerechtfertigt sein können, oder sogar, dass eine KI die richtige Antwort gibt, welche die menschlichen Gutachter nicht sehen. Zum Beispiel kann ein umstrittenes Bild, das für einen Menschen wie ein gewöhnliches Bild eines Hundes aussieht, in Wirklichkeit für die KI Muster enthalten, die in authentischen Bildern nur beim Betrachten einer Katze auftreten würden. Die KI erkenne reale visuelle Muster, welche für Menschen nicht zu erkennen seien. Diese Schlussfolgerungen wurden jedoch von anderen Forschern in Frage gestellt. Zum Beispiel wurde eingewendet, dass die Modelle zu oberflächlichen Statistiken tendieren könnten, was dazu führe, dass Training bei umstrittenen Themen in realen Szenarien nicht robust sei.

Halluzination wurde als statistisch unvermeidliches Nebenprodukt eines jeden unvollkommenen generativen Modells erkannt, das darauf trainiert ist, die Trainingswahrscheinlichkeit zu maximieren, wie zum Beispiel GPT-4. Ebenfalls können Fehler beim Kodieren und Dekodieren zwischen Text und Repräsentationen Halluzinationen verursachen. KI-Training zur Erzeugung von vielfältigen Antworten kann auch zu Halluzinationen führen. Halluzinationen können ebenfalls auftreten, wenn die KI auf einem Datensatz trainiert wird, bei dem beschriftete Zusammenfassungen trotz ihrer faktischen Genauigkeit nicht direkt in den beschrifteten Daten verankert sind, die angeblich zusammengefasst werden. Größere Datensätze können ein Problem des parametrischen Wissens schaffen (Wissen, das in gelernten Systemparametern fixiert ist), was zu Halluzinationen führt, wenn das System zu selbstsicher sein festgelegtes Wissen nutzt.[9] In Systemen wie GPT-4 generiert eine KI jedes nächste Wort basierend auf einer Sequenz von vorherigen Wörtern (einschließlich der Wörter, die sie selbst während desselben Dialogs zuvor generiert hat), was zu einer Kaskade von möglichen Halluzinationen führt, je länger die Antwort wird.[10]

Zur Reduktion von KI-Halluzinationen wird zusätzliches aktives Lernen (wie zum Beispiel Bestärkendes Lernen aus menschlich beeinflusster Rückkopplung bei GPT-4) verwendet. Auch hat Google Bard eine neue Funktion eingeführt, mittels welcher Teile im Text orange markiert werden, deren Aussagen unsicher sind.[11] Ob sich jedoch alle erwähnten Probleme lösen lassen, sei fraglich.[12]

Es wird untersucht, in welcher Art KI-Halluzinationen von typisch menschlichen Fehlern abweichen. Geeignete Gegenmaßnahmen für besonders verwirrende, aber echt erscheinende Resultate werden erforscht.[13]

Eine solche Möglichkeit ist das Self-Consistency-Prompting, welches dazu dient, konfabulierte Antworten des Sprachmodells durch Variationen der Anfragen (Prompts) oder gleich bleibende Mehrfachanfragen zu erkennen.[14][13]

Auch ein geeignetes Prompting, welches dem KI-Modell ermöglicht, eine Frage nicht beantworten zu müssen, kann zu einer Verringerung – jedoch nicht Verhinderung – konfabulierter Antworten führen. Beispielsweise kann man statt „Wer war der Präsident von Deutschland 2017?“ die Frage als „Weißt du, wer der Präsident von Deutschland 2017 war?“ formulieren. Dies ermöglicht es dem System, eine Antwort wie „Nein, weiß ich leider nicht“ zu formulieren, anstatt zu versuchen, die Antwort zu erraten.

Eine weitere Möglichkeit besteht darin, mittels Retrieval-Augmented Generation die Anfrage des Benutzers mit gesicherten Informationen aus dem Internet oder einer Datenbank anzureichern, sofern die nötigen Daten vorhanden sind.

Ein weiterer, einfach und stabil zu handhabender Weg besteht darin, der KI ein Template vorzugeben, das ausschließlich geprüfte Zitate zulässt und zusätzliche, nicht belegte Fundstellen gesondert aufführt und als „wahrscheinlich“ kennzeichnet. Die geprüften Zitate müssen ungeachtet dessen anschließend selbstverständlich „händisch“ anhand der von der KI mitgeteilten Fundstellen verifiziert werden.

Template für dauerhafte Arbeit mit verifizierten Zitaten

  • Ich lege folgende Regeln für alle Antworten fest:
  • Du verwendest nur verifizierte Zitate mit prüfbarer Quelle.
  • Wenn eine Information nicht sicher belegt ist, markierst du sie mit „nicht belegt“.
  • Wenn eine Fundstelle möglich ist, aber nicht geprüft, markierst du sie mit „nicht geprüft“.
  • Du erfindest keine Quelle.
  • Du gibst keine Vermutung als Tatsache aus.
  • Wenn es keine belastbare Quelle gibt, sagst du klar „keine belastbare Information“.
  • Diese Regeln gelten für alle Antworten und bleiben aktiv, bis ich sie deaktiviere.
  • Aktiviere diese Regeln jetzt und bestätige die Übernahme.

Begriffliche Kritik

[Bearbeiten | Quelltext bearbeiten]

Forscher der Universität Glasgow merkten 2024 an, die Metapher der Halluzination könnte bei politischen Entscheidungsträgern und Öffentlichkeit falsche Assoziationen über die Funktionsweise künstlicher neuronaler Netze wecken. Anstelle einer vermeintlichen Fehlrepräsentation der Wirklichkeit müsse ein Begriff verdeutlichen, dass derartige Ausgaben gänzlich wirklichkeitsfern und der internen Funktionsweise der KI-Modelle geschuldet seien. Sie schlugen daher die Nutzung des von Harry Frankfurt etablierten Begriffs „Bullshit“ vor.[15] Ähnliche Kritik kam bereits zuvor durch Netzaktivisten auf.[16]

KI-Halluzinationen in rechtlichen Verfahren

[Bearbeiten | Quelltext bearbeiten]

Unterschieden werden falsche Zitate als falsch zitierte oder falsch wiedergegebene Inhalte sowie fabrizierte Beweisstücke als komplett erfundene Dokumente oder Beweismittel, die es in der Realität nie gab.[17]

Im Juni 2024 wurde in einer Studie der Stanford University festgestellt, dass juristische KI-Tools noch unzuverlässig seien.[18] Die Konsequenzen für die Einreichung falscher Inhalte, die von KI generiert wurden, können von einem Vertrauens- und Ansehensverlust bis hin zu rechtlichen Konsequenzen reichen (Verletzung anwaltlicher Sorgfaltspflichten, vorsätzliche Täuschung).

In einer Angelegenheit über einen Unterrichts-/Coachingvertrag musste das OLG Celle im April 2025 zur Position der Beklagten an vier Stellen feststellen: „Die von der Beklagten genannte Fundstelle kann der Senat nicht überprüfen, da es sich insoweit um ein Fehlzitat handelt, das weder bei juris noch bei beck-online unter den genannten Parametern (Datum/Aktenzeichen/Fundstelle) aufrufbar ist.“ Die Problematik wurde öffentlich thematisiert.[19][20]

In einer Umgangssache am Amtsgericht Köln hatte ein Rechtsanwalt in einem Schriftsatz KI verwendet. Dem Gericht fielen die im Antrag enthaltenen Fehler auf. Es monierte im Juli 2025: „Die weiteren von dem Antragsgegnervertreter im Schriftsatz vom 30.06.2025 genannten Voraussetzungen stammen nicht aus der zitierten Entscheidung und sind offenbar mittels künstlicher Intelligenz generiert und frei erfunden. Auch die genannten Fundstellen sind frei erfunden.“ Das Gericht mahnte: „Der Verfahrensbevollmächtige hat derartige Ausführungen für die Zukunft zu unterlassen, da sie die Rechtsfindung erschweren, den unkundigen Leser in die Irre führen und das Ansehen des Rechtsstaates und insbesondere der Anwaltschaft empfindlich schädigen. Er wird darauf hingewiesen, dass es sich um einen Verstoß gegen § 43 a Abs. 3 BRAO handelt, wenn ein Rechtsanwalt bewusst Unwahrheiten verbreitet. Hierzu gehört der wissentlich falsche Vortrag über Inhalt und Aussagen von Gesetzen und Urteilen (Weyland/Bauckmann, 11. Aufl. 2024, BRAO § 43a Rn. 39; Henssler/Prütting/Henssler, 5. Aufl. 2019, BRAO § 43a Rn. 140). Der Verfahrensbevollmächtige ist Fachanwalt für Familienrecht und sollte die Rechtslage kennen.“[21][22]

In einem Rechtsstreit um ein Verkehrsdelikt entschied das Kammergericht Berlin im Juli 2025: „Die Verwaltungsbehörde und zwei gerichtliche Instanzen solcherart mit einer dysfunktionalen und gedankenlosen ‚Verteidigung‘ zu befassen, ist unter verschiedenen Gesichtspunkten bedenklich. So enthält die anwaltliche Rechtsmittelschrift eine Vielzahl unwahrer Behauptungen zum Verfahrensgeschehen (§ 43a Abs. 3 Satz 2 BRAO). In dem Verfahren 3 ORbs 46/25 ist dem Verteidiger zugutegehalten worden, dass dies ‚eher als gedankenlos denn als bewusst täuschend erscheinen mag‘. Daran dürfte nicht mehr festzuhalten sein. Der Senat hat zudem im selben Verfahren entschieden, dass einer in dieser sinnlosen Weise automatisierten Prozessführung der Erfolg selbst dann zu versagen sein könnte, wenn sie einmal, gewissermaßen als Zufallstreffer, einen allein auf Verfahrensrüge zu beachtenden Rechtsfehler ‚aufzeigen‘ sollte.“[23]

In einem Beschluss vom September 2025 mahnte das Landgericht Frankfurt: „Die Kammer hofft, dass die Fälschungen nicht vom Klägervertreter selbst vorgenommen wurden, sondern von einem Chatbot ‚halluziniert‘ worden sind.“[24][25]

Das Verwaltungsgericht Köln monierte im November 2025 in einem Intraorganstreitverfahren (Antrag auf Erlass einer einstweiligen Anordnung wegen Akteneinsichtsrecht eines Ratsmitglieds), in dem der Antragsteller kein Rechtsanwalt war und auch keinen Rechtsanwalt hinzugezogen hatte: „Allerdings fällt insoweit auch auf, dass der Antragsteller fehlerhaft zitiert, was nahelegt, dass er seine Antragsschrift mithilfe eines Kl-Werkzeugs erstellt und dessen Ergebnisse ungeprüft übernommen hat.“[26]

Vereinigte Staaten

[Bearbeiten | Quelltext bearbeiten]

In New York reichte ein Anwalt 2023 einen Antrag im Verfahren „Mata v. Avianca“ ein mit Hilfe des Chatbots ChatGPT. Er verweise auf Fälle wie „Petersen gegen Iran Air“ oder „Martinez gegen Delta Airlines“ mit angeblichen Urteile und Aktenzeichen, die frei erfunden waren.[22][27] Die American Bar Association erstellte im Juli 2024 Leitlinien für die KI-Nutzung durch Anwältinnen und Anwälte.[28][29][30]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Craig S. Smith: AI Hallucinations Could Blunt ChatGPT’s Success. In: IEEE Spectrum, 24. März 2023. Abgerufen am 24. September 2023 (englisch)
  2. Google cautions against hallucinating chatbots, report says. Reuters, 11. Februar 2023. Abgerufen am 24. September 2023 (englisch)
  3. a b William Broad: How Hallucinatory A.I. Helps Science Dream Up Big Breakthroughs. In: NYT 23. Dezember 2024. Abgerufen am 24. Februar 2025 (englisch; Paywall)
  4. KI und maschinelles Lernen: Revolution in der Medikamentenentwicklung In: Roche Geschäftsbericht 2024, Seite 155, 2025. Abgerufen am 5. April 2025
  5. Christian J. Meier: Warum die KI so gerne lügt. In: Süddeutsche Zeitung, 28. März 2023. Abgerufen am 24. September 2023
  6. Marc Zastrow: We Asked ChatGPT Your Questions About Astronomy. It Didn't Go so Well. In: Discover Magazine. Kalmbach Publishing Co. 29. Dezember 2022. Abgerufen am 24. September 2023 (englisch)
  7. Ziwie Ji et al.: Survey of hallucination in natural language generation. In: ACM Computing Surveys, 55 (12), S. 1–38, 2023 (englisch)
  8. Beren Millidge: LLMs confabulate not hallucinate. 19. März 2023, abgerufen am 26. Juli 2024 (englisch).
  9. Stephen Casper, Xander Davies et al.: Open Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback. MIT / Harvard University, 27. Juli 2023. Abgerufen am 24. September 2023 (englisch)
  10. Muru Zhang et al.: How language model hallucinations can snowball. arXiv preprint arXiv:2305.13534, 2023 (englisch)
  11. Google-Chatbot Bard kämpft gegen KI-Halluzinationen, indem es zweifelhafte Textstellen markiert. In: NZZ, 19. September 2023. Abgerufen am 24. September 2023
  12. Gerrit De Vynck: ChatGPT hallucinates. Some researchers worry it isn’t fixable. In: The Washington Post, 30. Mai 2023. Abgerufen am 24. September 2023 (englisch)
  13. a b Bruce Schneier, Nathan E. Sanders: AI Mistakes Are Very Different From Human Mistakes. In: IEEE Spectrum 13. Januar 2025. Abgerufen am 19. Februar 2025
  14. Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou: Self-Consistency Improves Chain of Thought Reasoning in Language Models. In: arxiv. 7. März 2023, abgerufen am 26. Juli 2024 (englisch).
  15. Michael Townsen Hicks, James Humphries, Joe Slater: ChatGPT is bullshit. In: Ethics and Information Technology. Band 26, Nr. 2, Juni 2024, ISSN 1388-1957, doi:10.1007/s10676-024-09775-5. (englisch)
  16. Jürgen "tante" Geuter: Bullshit, der (e)skaliert. In: Golem.de. 16. März 2023, abgerufen am 18. Juni 2024.
  17. Damien Charlotin: AI Hallucination Cases.
  18. Britta Weichlein: Studie zu juristischen KI-Tools: Noch zu unzuverlässig. In: beck-aktuell. 3. Juni 2024, abgerufen am 2. Januar 2026.
  19. OLG Celle, Beschluss vom 29. April 2025 — 5 U 1/25
  20. Anwaltliches Totalversagen: Vermasseln kann man’s auch ohne KI. In: beck-aktuell. 3. September 2025, abgerufen am 2. Januar 2026.
  21. AG Köln, Beschluss vom 2. Juli 2025 - 312 F 130/25
  22. a b Maximilian Amos: KI-Schriftsatz: Anwalt blamiert sich vor Gericht. In: beck-aktuell. 8. Juli 2025, abgerufen am 2. Januar 2026.
  23. KG Berlin 3. Senat für Bußgeldsachen Beschluss vom 25. August 2025, 3 ORbs 164/25, 3 ORbs 164/25 – 122 SsRs 33/25
  24. LG Frankfurt, Beschluss vom 25. September 2025 - 2-13 S 56/24
  25. "Komplette Fälschung": Gericht führt Anwalt für halluzinierte Fundstelle vor. In: beck-aktuell. 26. September 2025, abgerufen am 2. Januar 2026.
  26. 4. Kammer des Verwaltungsgerichts Köln, Beschluss vom 14. November 2025 - AL 3030/25
  27. USA: Anwalt fällt auf von ChatGPT erfundene Urteile herein. In: beck-aktuell. 30. Mai 2023, abgerufen am 2. Januar 2026.
  28. Mata v. Avianca, Inc. — S.D.N.Y., 22. Juni 2023
  29. Mata v. Avianca, Inc. — S.D.N.Y., 22. Juni 2023 (Volltext)
  30. Markus Hartung: American Bar Association: Diese Pflichten haben Anwälte beim KI-Einsatz. In: beck-aktuell. 6. August 2024, abgerufen am 2. Januar 2026.