24 Juli 2025 Meine KI halluziniert?
In der Tat, eine KI kann „halluzinieren“ … das bedeutet, sie erzeugt durchaus sehr überzeugend klingende, aber faktisch falsche oder gar erfundene Antworten, die so nicht in ihren Trainingsdaten stehen und nicht der Realität entsprechen. Das passiert insbesondere bei sogenannten generativen KI-Modellen wie ChatGPT oder ähnlichen Systemen, die Sprache, Bilder oder andere Inhalte erzeugen.
Halluzinationen treten auf, weil KIs rein statistisch arbeiten: Sie berechnen, wie eine passende Antwort aussehen könnte, und wählen dann die wahrscheinlich nächste Wortfolge oder Bildausprägung – ohne dabei wirklich zu verstehen, ob der Inhalt korrekt ist.
Warum passiert das? Zu den wichtigsten Auslösern für solche Halluzinationen gehören schlichtweg fehlerhafte, unvollständige oder veraltete Trainingsdaten: Wenn die Datenbasis Lücken oder Fehler hat, kann die KI nur vermuten, wie eine plausible Antwort aussehen müsste, und erfindet gegebenenfalls Details hinzu. Zudem hat eine KI kein echtes Verständnis von Bedeutung, Kontext oder Wahrheit. Fehlen ihr – modelltechnisch bedingt – Informationen, „halluziniert“ sie, was vermutlich passen könnte.
In der Regel ist das Modell so gebaut, dass es auf nahezu jede Eingabe einen Output liefern muss – in dem Fall entscheidet es sich schließlich für die statistisch wahrscheinlichste, nicht zwingend aber für eine wahre Antwort. Besonders bei offenen, mehrdeutigen oder komplexen Fragen steigt die Wahrscheinlichkeit falscher Ausgaben. Insbesondere bei längeren und komplexeren Antworten kann jeder weitere Satz neue Fehler und somit eine „Kaskade von Halluzinationen“ auslösen, da die KI weiter auf vorherigen, ggf. fehlerhaften Sätzen aufbaut.
Halluzinationen sind somit eine grundsätzliche Eigenschaft aktueller generativer KI-Modelle und lassen sich nur durch bessere Daten, technische Weiterentwicklungen und kontrollierende Mechanismen verringern, aber nicht vollständig ausschließen.
Wer mehr erfahren möchte: „Halluzinationen von generativer KI und großen Sprachmodellen (LLMs)“ (Fraunhofer Institut)
