KI-Halluzinationen: Definition, Entstehung, Erkennung und Behebung

geändert am 13. Juli 2024

Künstliche Intelligenz (KI) erzielte in den letzten Jahren erstaunliche Fortschritte, aber sie ist nicht immun gegen Unvollkommenheiten. Eine faszinierende und zugleich beunruhigende Facette dieser Technologie ist das Phänomen der KI-Halluzinationen. Es erinnert an den deutschen Lügenbaron Münchhausen. Im Brustton der Überzeugung liefern ChatGPT & Co neben echtem Wissen, Halbwahrheiten und Falschinformation. Kreativer als mancher Mensch.

KI-Halluzinationen, Münchhausen, KI-Lügen
So sieht die KI von Bing Chat mit Dall-E 3 das Problem von KI-Halluzinationen oder Lügen. Sie nutzt die Schlange, bekannt aus der Bibel als die teuflische Verführerin

Definition

In der Welt der künstlichen Intelligenz (KI) ist eine Halluzination eine falsche Wahrnehmung, die von einer KI erzeugt wird. Sie kann sich in Form von Bildern, Texten oder Audioinhalten manifestieren. KI-Halluzinationen können in einer Reihe von KI-Anwendungen auftreten, darunter Spracherkennung, Bilderkennung und maschinelles Lernen. Allerdings ist Halluzination vielleicht das falsche Wort, denn es vermenschlicht künstliche Intelligenz. Aber welchen Begriff alternativ verwenden?

Das Problem

Halluzinationen wirken häufig überzeugend, da große Sprachmodelle, Large Language Models (LLMs), darauf abzielen, zusammenhängende und flüssige Texte zu generieren. Ihr Auftreten ist darauf zurückzuführen, dass LLMs kein tiefgreifendes Verständnis für die zugrunde liegende Realität besitzen, die in der Sprache beschrieben wird. Stattdessen verwenden LLMs statistische Muster, um Sprache zu produzieren, die innerhalb des Kontexts der Eingabeaufforderung grammatisch und semantisch korrekt erscheint. Der KI fehlt das Verständnis für den Inhalt, der von ihr produzieren Ergebnisse.

Entstehung von KI-Halluzinationen

KI-Halluzinationen können durch eine Reihe von Faktoren entstehen. Dazu gehören:

  • Fehlerhafte Trainingsdaten: KI-Modelle werden auf Trainingsdaten trainiert, die die Realität widerspiegeln sollen. Wenn diese Daten jedoch fehlerhaft oder unvollständig sind, kann dies zu KI-Halluzinationen führen.
  • Unzureichende Modellierung: KI-Modelle sind komplexe mathematische Modelle, die die Realität nicht perfekt widerspiegeln können. Dies kann zu KI-Halluzinationen führen, die sich aus der Ungenauigkeit der Modellierung ergeben.
  • Algorithmische Fehler: KI-Modelle werden mithilfe von Algorithmen erstellt. Wenn diese Algorithmen Fehler enthalten, kann dies zu Halluzinationen führen.

Erkennung

KI-Halluzinationen können schwierig zu erkennen sein. Es gibt jedoch einige Anzeichen, die darauf hindeuten können, dass eine KI eine Halluzination erzeugt hat. Dazu gehören:

  • Unerwartete Ergebnisse: Wenn ein KI-Modell Ergebnisse liefert, die nicht mit den Erwartungen übereinstimmen, weist dies eventuell auf eine Halluzination hin.
  • Widersprüchliche Ergebnisse: Wenn ein KI-Modell Ergebnisse liefert, die sich gegenseitig widersprechen, könnte dies ein Zeichen für eine Halluzination sein.
  • Unlogische Ergebnisse: Wenn ein KI-Modell Ergebnisse liefert, die nicht logisch sind, ist eine Halluzination wahrscheinlich.

Lynx von Patronus AI ist inzwischen ein KI-Halluzinationserkennungs-Modell, das dem Problem auf den Grund geht.

Behebung von Halluzinationen

KI-Halluzinationen können in der Regel durch die Verbesserung der Trainingsdaten, die Modellierung oder die Algorithmen behoben werden. Dazu gehören:

  • Qualitätssicherung der Trainingsdaten: Die Qualität der Trainingsdaten sollte sorgfältig geprüft werden, um sicherzustellen, dass sie frei von Fehlern und Verzerrungen sind.
  • Verbesserung der Modellierung: Die Modellierung kann durch den Einsatz von fortschrittlicheren Algorithmen oder durch die Verwendung von mehr Trainingsdaten verbessert werden.
  • Fehlerbehebung der Algorithmen: Algorithmische Fehler können durch die Analyse der Algorithmen und die Identifizierung der Fehlerquellen behoben werden.

Laut Wikipedia unternehmen die KI-Entwickler folgende Maßnahmen: „Zur Reduktion von KI-Halluzinationen wird zusätzliches aktives Lernen (wie zum Beispiel Bestärkendes Lernen aus menschlich beeinflusster Rückkopplung bei GPT-4) verwendet. Auch hat Google Bard eine neue Funktion eingeführt, mittels welcher Teile im Text orange markiert werden, deren Aussagen unsicher sind. Ob sich jedoch alle erwähnten Probleme lösen lassen, ist fraglich.“ Auch Google neuste LLM Gemini-KI ist nicht frei von diesen Problemen.

Weitergehende Informationen zu Münchhausen

Neben den oben genannten Faktoren können KI-Halluzinationen auch durch andere Faktoren verursacht werden, wie z. B.:

  • Bias in den Trainingsdaten: KI-Modelle können durch Bias in den Trainingsdaten beeinflusst werden. Dies kann zu Halluzinationen führen, die Vorurteile widerspiegeln.
  • Anwendung von KI in neuen Bereichen: KI wird immer in neuen Bereichen eingesetzt. In diesen Bereichen sind die Trainingsdaten oft begrenzt oder unvollständig. Dies kann zu KI-Halluzinationen führen.

KI-Halluzinationen führen zu möglichen Problemen

  • Falsche Entscheidungen: KI-Systeme, die KI-Halluzinationen erzeugen, können falsche Entscheidungen treffen, die zu Schäden führen können.
  • Vertrauensverlust: Wenn KI-Systeme Halluzinationen erzeugen, kann dies zu einem Vertrauensverlust bei den Nutzern führen.
  • Verbreitung von Fehlinformationen: KI-Halluzinationen können verwendet werden, um Fehlinformationen zu verbreiten, die zu sozialen Unruhen oder sogar zu Krieg führen können.

Es ist wichtig, sich der potenziellen Gefahren von Halluzinationen bewusst zu sein. KI-Entwickler sollten Maßnahmen ergreifen, um KI-Halluzinationen zu verhindern und Nutzer sollten KI-Systeme mit Vorsicht einsetzen und Fakten überprüfen.

Fazit

KI-Halluzinationen sind eine potenzielle Gefahr für die Sicherheit und Zuverlässigkeit von KI-Systemen. Es ist wichtig, dass KI-Entwickler sich der Möglichkeit von Halluzinationen seitens der KI bewusst sind und Maßnahmen ergreifen, um sie zu verhindern. Aber auch die Nutzer sind in der Pflicht, Fakten auf ihre Richtigkeit zu überprüfen.