LLM steht für Large Language Model, auf Deutsch grosses Sprachmodell. Damit sind KI-Modelle gemeint, die auf riesigen Textmengen trainiert wurden, um Sprache zu verstehen und zu erzeugen. Modelle wie GPT von OpenAI oder Claude von Anthropic sind LLMs. Sie sind das Fundament fast aller KI-Tools, die du heute im Alltag und in VibeCoding nutzt.
Wie funktioniert ein LLM?
Ein LLM ist im Kern ein riesiges neuronales Netz, das aus Milliarden bis hunderten Milliarden Parametern besteht. Während des Trainings sieht es immense Mengen Text aus dem Internet, Büchern, Code und anderen Quellen. Es lernt dabei, Muster der Sprache zu erkennen: Welches Wort folgt typisch auf welches? Welche Konzepte gehören zusammen?
Wenn du dem LLM später einen Prompt gibst, sagt es voraus, welche Wortbestandteile (sogenannte Tokens) als nächste am wahrscheinlichsten passen. Das macht es Schritt für Schritt, bis eine vollständige Antwort entsteht. Klingt simpel, ist aber in der Praxis extrem mächtig: Aktuelle LLMs schreiben Texte, beantworten komplexe Fragen, schreiben Code und können sogar logisch argumentieren.
Moderne LLMs sind zudem multimodal, das heisst, sie verstehen nicht nur Text, sondern auch Bilder, Audio oder Video.
Wofür werden LLMs genutzt?
- Chatbots: ChatGPT, Claude und ähnliche Tools
- Coding-Assistenten: GitHub Copilot, Cursor, Claude Code
- Schreiben: Texte, E-Mails, Marketing, journalistische Recherche
- Analyse: Lange Dokumente zusammenfassen, Daten interpretieren
- Übersetzung: Sprachen wechseln in hoher Qualität
- Suche: Semantische Suche und Frage-Antwort über eigene Daten (siehe RAG)
- Agenten: Autonom Aufgaben erledigen, Tools nutzen
LLMs und VibeCoding
Ohne LLMs gäbe es kein VibeCoding. Sie sind das, was Claude Code, Cursor und alle ähnlichen Tools im Inneren antreibt. Wenn du verstehst, wie ein LLM funktioniert, fällt es dir leichter, gute Prompts zu formulieren und die Stärken und Schwächen der KI richtig einzuschätzen.
Wichtig zu wissen: Ein LLM "weiss" Dinge nur bis zu seinem Trainingsdatum. Aktuelle Ereignisse, deine privaten Dateien oder firmeneigenes Wissen kennt es nur, wenn du sie ihm im Context Window gibst oder über RAG anbindest. Auch sind LLMs nie zu 100 % zuverlässig, sie können halluzinieren, also Fakten erfinden.
Beispiel
Du installierst Claude Code auf deinem Rechner und schreibst "Bau mir eine simple To-do-App mit Next.js und Supabase". Der CLI gibt deinen Prompt zusammen mit deinen Projektdateien an ein LLM (Claude Opus 4.7). Das Modell denkt durch, schreibt Schritt für Schritt Code-Dateien, ruft im Terminal Befehle wie npm install auf und liefert am Ende eine fertige App. Hinter all dem läuft ein einzelnes LLM, das Anweisungen versteht und in Code-Aktionen übersetzt.
Grenzen
LLMs verbrauchen viel Rechenleistung und Energie. Anbieter wie OpenAI und Anthropic betreiben grosse Rechenzentren, um Anfragen zu bedienen. Auch bei Kosten lohnt es sich aufzupassen: Komplexe Prompts mit langem Kontext können in der API-Nutzung schnell mehrere Cent oder Euro pro Anfrage kosten. Für VibeCoding-Projekte sind die Beträge meist überschaubar, für grosse Produktivanwendungen muss man die Token-Kosten einplanen.