KIAktualisiert

LLM / Large Language Model

Ein LLM ist ein grosses Sprachmodell, das auf riesigen Textmengen trainiert wurde und in naturlicher Sprache schreiben, antworten und programmieren kann.

LLM steht für Large Language Model, auf Deutsch grosses Sprachmodell. Damit sind KI-Modelle gemeint, die auf riesigen Textmengen trainiert wurden, um Sprache zu verstehen und zu erzeugen. Modelle wie GPT von OpenAI oder Claude von Anthropic sind LLMs. Sie sind das Fundament fast aller KI-Tools, die du heute im Alltag und in VibeCoding nutzt.

Wie funktioniert ein LLM?

Ein LLM ist im Kern ein riesiges neuronales Netz, das aus Milliarden bis hunderten Milliarden Parametern besteht. Während des Trainings sieht es immense Mengen Text aus dem Internet, Büchern, Code und anderen Quellen. Es lernt dabei, Muster der Sprache zu erkennen: Welches Wort folgt typisch auf welches? Welche Konzepte gehören zusammen?

Wenn du dem LLM später einen Prompt gibst, sagt es voraus, welche Wortbestandteile (sogenannte Tokens) als nächste am wahrscheinlichsten passen. Das macht es Schritt für Schritt, bis eine vollständige Antwort entsteht. Klingt simpel, ist aber in der Praxis extrem mächtig: Aktuelle LLMs schreiben Texte, beantworten komplexe Fragen, schreiben Code und können sogar logisch argumentieren.

Moderne LLMs sind zudem multimodal, das heisst, sie verstehen nicht nur Text, sondern auch Bilder, Audio oder Video.

Wofür werden LLMs genutzt?

  • Chatbots: ChatGPT, Claude und ähnliche Tools
  • Coding-Assistenten: GitHub Copilot, Cursor, Claude Code
  • Schreiben: Texte, E-Mails, Marketing, journalistische Recherche
  • Analyse: Lange Dokumente zusammenfassen, Daten interpretieren
  • Übersetzung: Sprachen wechseln in hoher Qualität
  • Suche: Semantische Suche und Frage-Antwort über eigene Daten (siehe RAG)
  • Agenten: Autonom Aufgaben erledigen, Tools nutzen

LLMs und VibeCoding

Ohne LLMs gäbe es kein VibeCoding. Sie sind das, was Claude Code, Cursor und alle ähnlichen Tools im Inneren antreibt. Wenn du verstehst, wie ein LLM funktioniert, fällt es dir leichter, gute Prompts zu formulieren und die Stärken und Schwächen der KI richtig einzuschätzen.

Wichtig zu wissen: Ein LLM "weiss" Dinge nur bis zu seinem Trainingsdatum. Aktuelle Ereignisse, deine privaten Dateien oder firmeneigenes Wissen kennt es nur, wenn du sie ihm im Context Window gibst oder über RAG anbindest. Auch sind LLMs nie zu 100 % zuverlässig, sie können halluzinieren, also Fakten erfinden.

Beispiel

Du installierst Claude Code auf deinem Rechner und schreibst "Bau mir eine simple To-do-App mit Next.js und Supabase". Der CLI gibt deinen Prompt zusammen mit deinen Projektdateien an ein LLM (Claude Opus 4.7). Das Modell denkt durch, schreibt Schritt für Schritt Code-Dateien, ruft im Terminal Befehle wie npm install auf und liefert am Ende eine fertige App. Hinter all dem läuft ein einzelnes LLM, das Anweisungen versteht und in Code-Aktionen übersetzt.

Grenzen

LLMs verbrauchen viel Rechenleistung und Energie. Anbieter wie OpenAI und Anthropic betreiben grosse Rechenzentren, um Anfragen zu bedienen. Auch bei Kosten lohnt es sich aufzupassen: Komplexe Prompts mit langem Kontext können in der API-Nutzung schnell mehrere Cent oder Euro pro Anfrage kosten. Für VibeCoding-Projekte sind die Beträge meist überschaubar, für grosse Produktivanwendungen muss man die Token-Kosten einplanen.

Häufige Fragen

Wie ist ein LLM von einer normalen Software unterschiedlich?

Klassische Software folgt fest programmierten Regeln. Ein LLM hat keine festen Regeln, sondern Wahrscheinlichkeiten aus dem Training. Es kann dadurch viel flexibler reagieren, ist aber nicht immer exakt vorhersehbar.

Welche LLMs sind aktuell führend?

Stand Mai 2026 zählen vor allem Claude Opus von Anthropic, GPT-5 von OpenAI und Modelle von Google (Gemini-Familie) zur Spitze. Auch Open-Source-Modelle wie Llama oder Qwen entwickeln sich schnell.

Kann ich ein LLM lokal betreiben?

Ja, mit Tools wie Ollama oder LM Studio. Lokale Modelle sind kleiner und etwas schwächer als Top-API-Modelle, aber datenschutzfreundlicher. Für ernsthaftes VibeCoding sind die Cloud-Modelle aktuell deutlich stärker.

VibeCoding Masterclass

Alles davon lernst du in der VibeCoding Masterclass.

Statt nur nachzuschlagen — anwenden. Bau Schritt für Schritt deine eigenen KI-Produkte, geführt von echten Projekten und einer aktiven Community.

Auf die Warteliste