AI-Coding wird oft missverstanden. Viele glauben, es ginge darum, einem Modell eine Anfrage zu stellen und Code zurückzubekommen. Das funktioniert für Code-Schnipsel — für ein produktives Werkzeug reicht es nicht. Was Claude Code von einem reinen Chat-Fenster unterscheidet, sind drei Primitive, die ineinandergreifen.
Die drei Primitive
1. Das Sprachmodell (LLM). Es ist gut darin, Code zu generieren, zu erklären und umzubauen. Aber es ist statisch: Was es weiß, weiß es aus dem Training. Was du gerade in deinem Editor hast, weiß es nicht von alleine.
2. Werkzeuge (Tools). Damit das Modell mit deiner Welt interagieren kann, braucht es Werkzeuge: Dateien lesen, Dateien schreiben, Shell-Kommandos ausführen, Tests starten, im Web suchen. Jedes Werkzeug ist eine konkrete Funktion mit einem definierten Input und Output. Erst durch Werkzeuge wird aus „etwas vorschlagen" → „etwas tun".
3. Kontext. Das ist der Unterschied zwischen einer Anfrage ins Leere und einer Anfrage, die deine Realität kennt: deinen Code-Stil, deine Architektur, deine Geschäftslogik, deine Konventionen. Kontext kommt aus deinem Repository, aus CLAUDE.md-Dateien, aus deinen Skills und Subagents — und entscheidet darüber, ob die Antwort zum Projekt passt oder generisch ist.
Warum die Kombination zählt
Ein LLM ohne Werkzeuge ist ein guter Sparringspartner — er macht Vorschläge, die du selbst umsetzen musst. Ein LLM mit Werkzeugen, aber ohne Kontext, ist schnell, aber meistens am Projekt vorbei. Erst die Kombination aller drei macht aus einem Modell einen echten Co-Piloten.
Du beschreibst dein Problem im Chat — das Modell antwortet mit einem Code-Schnipsel. Du musst den Code selbst kopieren, anpassen, einbauen, testen. Bei jeder Wiederholung neu. Konventionen werden nicht eingehalten, weil das Modell sie nicht kennt.
Du beschreibst dein Problem im Chat — das Modell antwortet mit einem Code-Schnipsel. Du musst den Code selbst kopieren, anpassen, einbauen, testen. Bei jeder Wiederholung neu. Konventionen werden nicht eingehalten, weil das Modell sie nicht kennt.
Das Modell liest deine Dateien, kennt deine Konventionen aus CLAUDE.md, schreibt Code, läuft die Tests. Reproduzierbar, integriert in deinen Workflow. Die spannenden Fragen werden zu Architektur-Entscheidungen — nicht zu Copy-Paste-Mechanik.
Die spannenden Fragen entstehen aus der Orchestrierung: Wie strukturiere ich Kontext, damit das Modell nicht zu viel sieht? Welche Werkzeuge gebe ich frei, welche nicht? Wann lohnt sich ein Subagent, wann ein Skill?
