Kurz erklärt
Eine Halluzination entsteht, wenn ein KI-Modell Informationen generiert, die plausibel klingen, aber faktisch falsch sind. Die KI erfindet keine Lügen – sie vervollständigt wahrscheinliche Textmuster, ohne zwischen Wahrheit und Fiktion unterscheiden zu können.
Reale Fälle
Rechtliche Konsequenzen: Ein Anwalt reichte 2023 einen Schriftsatz mit fiktiven Gerichtsurteilen ein, die ChatGPT erfunden hatte – der Fall wurde medial bekannt und hatte erhebliche Konsequenzen.
Medizinische Forschung: Eine Studie fand, dass 47% der ChatGPT-Quellenangaben nicht existierten – kritisch für wissenschaftliche Arbeit und Compliance.
Erkennungsmerkmale
Überspezifische Details ohne Quellenangabe: Die KI gibt präzise Zahlen, Daten oder Namen an, die nicht verifizierbar sind.
Selbstbewusster Ton bei obskuren Themen: Die KI präsentiert Nischeninformationen mit großer Sicherheit.
Zitate von nicht existierenden Quellen: Bücher, Studien oder Artikel, die nie publiziert wurden.
Widersprüche innerhalb einer Antwort: Die KI widerspricht sich selbst in derselben Ausgabe.
Präventionsstrategien
Niedrige Temperature für faktische Aufgaben: Temperature 0-0.3 reduziert Kreativität und damit Halluzinationen.
Klare, spezifische Prompts: Je präziser die Anweisung, desto geringer die Halluzinationsrate.
Explizit nach Quellen fragen: ‘Nenne nur Informationen mit verifizierbaren Quellen.’
RAG einsetzen: KI an verifizierte Datenquellen anbinden – reduziert Halluzinationen erheblich.
Der KI erlauben, ‘Ich weiß es nicht’ zu sagen: Prompt: ‘Wenn du dir nicht sicher bist, sag es deutlich.‘
Wichtige Limitation
Halluzinationen können mit aktueller LLM-Architektur nicht vollständig eliminiert werden. Menschliche Verifikation bleibt für kritische Informationen unverzichtbar.
Faustregel: Je kritischer die Anwendung (Recht, Medizin, Finanzen, Compliance), desto wichtiger ist menschliche Validierung.
Business-Relevanz
Für Unternehmen bedeutet dies: KI-Ausgaben in kritischen Bereichen immer validieren. RAG und strukturierte Datenquellen reduzieren das Risiko, ersetzen aber nicht die menschliche Kontrolle.