KIAktualisiert

Halluzination

Halluzination beschreibt KI-Antworten, die selbstbewusst klingen, aber faktisch falsch oder erfunden sind.

Halluzination ist der Fachbegriff für falsche oder erfundene Inhalte, die ein LLM mit voller Überzeugung ausgibt. Das Modell merkt nicht, dass es lügt, weil es im Kern keine Datenbank ist, sondern ein Wahrscheinlichkeits-Generator. Wenn das Modell nicht sicher weiss, was richtig ist, "rät" es plausibel klingend weiter. Halluzinationen sind eine der grössten Limitationen von KI heute und ein zentrales Thema, wenn du VibeCoding oder eigene KI-Produkte verantwortlich einsetzen willst.

Warum halluzinieren KI-Modelle?

LLMs lernen Sprachmuster, keine Fakten. Sie speichern keine Tabellen oder Lexika. Stattdessen entstehen aus dem Training Wahrscheinlichkeiten, welche Wortfolgen typisch sind. Wenn die Frage in einen vertrauten Bereich fällt, ist die Antwort meistens richtig. Wenn die Frage spezifisch oder neu ist und das Modell wenig "weiss", füllt es Lücken mit gut klingenden Vermutungen.

Typische Auslöser für Halluzinationen sind:

  • Sehr spezielle oder neue Themen
  • Zahlen, Daten und Quellenangaben
  • Kombinationen von Fakten, die das Modell nie zusammen gesehen hat
  • Mehrdeutige oder schlecht formulierte Prompts
  • Aufforderungen, mit Selbstbewusstsein zu antworten

Wo treten Halluzinationen besonders auf?

  • Wissenschaftliche Quellenangaben: Erfundene Paper, Autoren oder DOIs
  • Recht: Erfundene Paragraphen oder Urteile
  • Finanzen: Erfundene Kennzahlen oder Kursdaten
  • Medizin: Falsche Dosierungen oder Behandlungswege
  • Code: Erfundene Funktionen, Bibliotheken oder API-Endpunkte
  • Aktuelle Ereignisse: Falls das Wissen über das Trainingsdatum hinausgeht

Halluzination und VibeCoding

In Claude Code und Cursor äussert sich Halluzination oft als nicht existierende API, falsche Bibliotheks-Namen oder erfundene Methoden. Auch funktionierender Code kann subtile Bugs enthalten, weil das Modell ein Detail "geraten" hat. Deshalb ist Testen Pflicht.

Strategien gegen Halluzinationen im VibeCoding:

  • Tests laufen lassen, bevor du Code akzeptierst
  • Den Agenten anweisen, Dokumentation zu lesen, statt aus dem Gedächtnis zu zitieren
  • Externe Quellen über MCP oder Tool-Aufrufe anbinden
  • Kleine, klare Aufgaben statt grosser, vager Aufträge
  • RAG-Setup mit echten Doku-Quellen

Beispiel

Du fragst Claude Code: "Wie nutze ich die offizielle Stripe-Bibliothek in Next.js 15?" Wenn das Modell unsicher ist, kann es eine Methode wie stripe.payments.checkout.start() ausgeben, die so nicht existiert. Korrekt wäre stripe.checkout.sessions.create(). Eine kurze Verifikation gegen die echte Doku oder ein Aufruf von npm install stripe mit Test bringt den Fehler ans Licht.

So minimierst du Halluzinationen

  • Klare Prompts: Spezifisch sein, Constraints definieren
  • Erlaubnis zur Unsicherheit: "Wenn du es nicht sicher weisst, sag das"
  • Kontext liefern: Echte Daten, Doku, Beispiele in den Prompt
  • Verifikation: Quellen prüfen, Tests laufen, Daten gegenchecken
  • Mehrere Modelle: Konsistenz zwischen Claude und GPT prüfen
  • Tools nutzen: Web-Search, RAG, Datenbank-Zugriffe

Stand Mai 2026 sind Halluzinationen deutlich seltener geworden, vor allem bei Top-Modellen. Komplett vermeidbar sind sie aber noch lange nicht. Verlass dich nie blind auf KI-Antworten, vor allem nicht in Bereichen mit echten Konsequenzen.

Häufige Fragen

Halluzinieren alle KI-Modelle gleich oft?

Nein. Top-Modelle (Claude Opus, GPT-5) halluzinieren deutlich seltener als kleinere Modelle. Wer hohe Genauigkeit braucht, sollte das beste verfügbare Modell für die Aufgabe nutzen.

Kann ich Halluzinationen ganz abschalten?

Nein, aber du kannst sie stark reduzieren: Klare Prompts, echte Quellen einfügen, Verifikation einbauen und das Modell explizit zur Vorsicht auffordern.

Wie erkenne ich eine Halluzination?

Sehr selbstbewusste Aussagen ohne Quellen, spezifische Zahlen ohne Kontext, Code mit unbekannten Funktionen oder fachliche Behauptungen, die zu rund klingen. Im Zweifel: Verifizieren.

VibeCoding Masterclass

Alles davon lernst du in der VibeCoding Masterclass.

Statt nur nachzuschlagen — anwenden. Bau Schritt für Schritt deine eigenen KI-Produkte, geführt von echten Projekten und einer aktiven Community.

Auf die Warteliste