Halluzination ist der Fachbegriff für falsche oder erfundene Inhalte, die ein LLM mit voller Überzeugung ausgibt. Das Modell merkt nicht, dass es lügt, weil es im Kern keine Datenbank ist, sondern ein Wahrscheinlichkeits-Generator. Wenn das Modell nicht sicher weiss, was richtig ist, "rät" es plausibel klingend weiter. Halluzinationen sind eine der grössten Limitationen von KI heute und ein zentrales Thema, wenn du VibeCoding oder eigene KI-Produkte verantwortlich einsetzen willst.
Warum halluzinieren KI-Modelle?
LLMs lernen Sprachmuster, keine Fakten. Sie speichern keine Tabellen oder Lexika. Stattdessen entstehen aus dem Training Wahrscheinlichkeiten, welche Wortfolgen typisch sind. Wenn die Frage in einen vertrauten Bereich fällt, ist die Antwort meistens richtig. Wenn die Frage spezifisch oder neu ist und das Modell wenig "weiss", füllt es Lücken mit gut klingenden Vermutungen.
Typische Auslöser für Halluzinationen sind:
- Sehr spezielle oder neue Themen
- Zahlen, Daten und Quellenangaben
- Kombinationen von Fakten, die das Modell nie zusammen gesehen hat
- Mehrdeutige oder schlecht formulierte Prompts
- Aufforderungen, mit Selbstbewusstsein zu antworten
Wo treten Halluzinationen besonders auf?
- Wissenschaftliche Quellenangaben: Erfundene Paper, Autoren oder DOIs
- Recht: Erfundene Paragraphen oder Urteile
- Finanzen: Erfundene Kennzahlen oder Kursdaten
- Medizin: Falsche Dosierungen oder Behandlungswege
- Code: Erfundene Funktionen, Bibliotheken oder API-Endpunkte
- Aktuelle Ereignisse: Falls das Wissen über das Trainingsdatum hinausgeht
Halluzination und VibeCoding
In Claude Code und Cursor äussert sich Halluzination oft als nicht existierende API, falsche Bibliotheks-Namen oder erfundene Methoden. Auch funktionierender Code kann subtile Bugs enthalten, weil das Modell ein Detail "geraten" hat. Deshalb ist Testen Pflicht.
Strategien gegen Halluzinationen im VibeCoding:
- Tests laufen lassen, bevor du Code akzeptierst
- Den Agenten anweisen, Dokumentation zu lesen, statt aus dem Gedächtnis zu zitieren
- Externe Quellen über MCP oder Tool-Aufrufe anbinden
- Kleine, klare Aufgaben statt grosser, vager Aufträge
- RAG-Setup mit echten Doku-Quellen
Beispiel
Du fragst Claude Code: "Wie nutze ich die offizielle Stripe-Bibliothek in Next.js 15?" Wenn das Modell unsicher ist, kann es eine Methode wie stripe.payments.checkout.start() ausgeben, die so nicht existiert. Korrekt wäre stripe.checkout.sessions.create(). Eine kurze Verifikation gegen die echte Doku oder ein Aufruf von npm install stripe mit Test bringt den Fehler ans Licht.
So minimierst du Halluzinationen
- Klare Prompts: Spezifisch sein, Constraints definieren
- Erlaubnis zur Unsicherheit: "Wenn du es nicht sicher weisst, sag das"
- Kontext liefern: Echte Daten, Doku, Beispiele in den Prompt
- Verifikation: Quellen prüfen, Tests laufen, Daten gegenchecken
- Mehrere Modelle: Konsistenz zwischen Claude und GPT prüfen
- Tools nutzen: Web-Search, RAG, Datenbank-Zugriffe
Stand Mai 2026 sind Halluzinationen deutlich seltener geworden, vor allem bei Top-Modellen. Komplett vermeidbar sind sie aber noch lange nicht. Verlass dich nie blind auf KI-Antworten, vor allem nicht in Bereichen mit echten Konsequenzen.