Skip to content
Methodology 2026-02-22

Context Engineering: Die Fähigkeit, die alles andere multipliziert

Prompt Engineering dreht sich um das, was man sagt. Context Engineering dreht sich um das, was das Modell sieht. Meistern Sie diese eine Fähigkeit und alles andere wird einfacher.

Die Unterscheidung, die alles verändert

“Prompt Engineering dreht sich um das, was man sagt. Context Engineering dreht sich um das, was das Modell sieht.”

Diese Einordnung, artikuliert von Martin Fowler und von Anthropic aufgegriffen, erfasst die wichtigste Verschiebung in der Art, wie erfahrene Entwickler mit AI arbeiten. Die meisten Entwickler sind besessen von ihren Prompts: der exakten Formulierung, den magischen Phrasen, den “Act as”-Präfixen. Aber der Prompt ist nur ein Bruchteil dessen, was das Modell verarbeitet. Der Rest ist Kontext: die in die Sitzung geladenen Dateien, die Memory-Dateien die das Modell beim Start liest, der Gesprächsverlauf, die verfügbaren Tools.

Context Management ist wichtiger als Prompt Engineering. Ein mittelpräziser Prompt mit exzellentem Kontext wird einen perfekten Prompt mit schlechtem Kontext jedes Mal übertreffen. Und doch lehrt fast niemand Context Engineering systematisch.

Die Hierarchie des Kontexts

Nicht jeder Kontext ist gleich. Er funktioniert in Stufen, und das Verstehen dieser Stufen ist die Grundlage der Fähigkeit.

Stufe 1: Hot Memory (Immer geladen). Das ist Ihre CLAUDE.md-Datei: die Anweisungen, die das Modell zu Beginn jeder Sitzung liest. Es ist der Context-Baustein mit dem größten Hebel, den Sie kontrollieren. Jede Zeile in dieser Datei formt jede Antwort, die Sie erhalten. Behandeln Sie sie wie Produktionscode: Wenn sie zu lang ist, ignoriert die AI die Hälfte. Fragen Sie sich für jede Zeile: “Würde das Entfernen dazu führen, dass die AI Fehler macht?” Wenn die Antwort nein ist, entfernen Sie sie. Verwenden Sie IMPORTANT und YOU MUST für kritische Regeln, die nicht verletzt werden dürfen.

CLAUDE.md unterstützt eine eigene Hierarchie. Globale Regeln leben in ~/.claude/CLAUDE.md. Projektweite Regeln gehen in ./CLAUDE.md und werden via Git geteilt. Verzeichnisspezifische Regeln gehen in ./src/CLAUDE.md. Persönliche Präferenzen, die nicht geteilt werden sollen, gehen in CLAUDE.local.md, das per gitignore ausgeschlossen ist.

Stufe 2: Warm Context (Bei Bedarf). Das sind Skills, Befehle und Workflows, die bei Aufruf geladen werden. Sie sind nicht in jeder Sitzung präsent, nur wenn sie gebraucht werden. Das hält den Basis-Kontext schlank und macht gleichzeitig spezialisierte Fähigkeiten verfügbar.

Stufe 3: Cold Context (Referenziert). Übergabe-Dokumente, Spezifikationen, Architecture Decision Records. Diese werden nicht standardmäßig geladen. Sie existieren als Dateien, die das Modell bei Anweisung lesen kann. Das Interview-dann-Spec-Muster lebt hier: AI interviewt Sie zu den Anforderungen, produziert eine SPEC.md, und eine frische Sitzung implementiert von dieser Spec aus. Die Spec trägt den Kontext, ohne die Sitzung zu verschmutzen.

Die Forschung

Drei Ergebnisse aus aktueller Forschung belegen Context Engineering quantitativ.

Ergebnis 1: CLAUDE.md-Optimierung allein verbessert die Leistung messbar. Arize fand heraus, dass die Optimierung von CLAUDE.md-Dateien, ohne Infrastruktur-Änderungen, ohne Tool-Änderungen, ohne Workflow-Änderungen, eine 5,19% Verbesserung bei allgemeinen Aufgaben und eine 10,87% Verbesserung bei Aufgaben, die auf ein einzelnes Repository spezialisiert sind, erzielte. Das ist ein bedeutsamer Gewinn durch das Bearbeiten einer einzigen Textdatei. Es ist die Intervention mit dem höchsten Hebel, die jedem Entwickler zur Verfügung steht, der heute AI-Tools nutzt.

Ergebnis 2: Mehr Tools machen AI schlechter, nicht besser. Forscher aus Berkeley fanden heraus, dass AI schlechter abschneidet, wenn sie mehr Tools erhält. Modelle die mit 19 verfügbaren Tools erfolgreich waren, scheiterten mit 46. Jedes zusätzliche Tool ist zusätzlicher Kontext, den das Modell verarbeiten muss, zusätzliche Optionen die es bewerten muss, zusätzliche Angriffsfläche für Verwirrung. Context Engineering bedeutet, dem Modell genau das zu geben, was es braucht, nicht alles was man hat.

Ergebnis 3: Häppchenweise Information zerstört die Leistung. Forscher von Microsoft und Salesforce demonstrierten, dass das sequenzielle Verteilen von Information über Gesprächsrunden, statt sie vorab zu liefern, einen 39% Leistungsabfall verursacht. Das Modell akkumuliert kein Verständnis über Runden hinweg wie ein Mensch. Es verarbeitet jede Runde mit dem vollen Kontextfenster, und Information die zehn Runden zurückliegt konkurriert mit allem was danach kam. Laden Sie Ihren Kontext vorab. Lassen Sie das Modell nicht danach suchen.

Sechs Strategien, die funktionieren

Diese sind nicht theoretisch. Es sind die Praktiken, die konsistente Ergebnisse liefern.

1. Halten Sie CLAUDE.md chirurgisch präzise. Jede Zeile verdient ihren Platz. Wenn die AI keine Fehler macht, die eine Regel verhindern würde, gehört die Regel nicht dorthin. Optimierung erzeugt messbare Gewinne. Aufblähung erzeugt messbare Verluste.

2. Löschen Sie den Kontext zwischen unzusammenhängenden Aufgaben. Verwenden Sie /clear beim Aufgabenwechsel. Mischen Sie nie unzusammenhängende Arbeit in einer Sitzung. Kontextverschmutzung von einer vorherigen Aufgabe wird die Leistung bei der aktuellen verschlechtern. Das ist kostenlos und dauert zwei Sekunden.

3. Laden Sie Information vorab. Geben Sie dem Modell alles was es braucht am Anfang des Gesprächs, nicht verteilt über mehrere Runden. Der 39% Leistungsabfall durch sequenzielle Informationslieferung ist zu groß, um ihn zu ignorieren.

4. Verwenden Sie das Interview-dann-Spec-Muster. Für komplexe Features lassen Sie eine Sitzung Sie zu den Anforderungen interviewen und eine SPEC.md produzieren. Starten Sie dann eine frische Sitzung, um von der Spec aus zu implementieren. Das gibt der Implementierungs-Sitzung sauberen, umfassenden Kontext ohne das Rauschen des Entdeckungsgesprächs.

5. Wenden Sie die Zwei-Korrekturen-Regel an. Wenn Sie die AI zweimal zum selben Problem korrigiert haben und sie es immer noch falsch macht, stoppen Sie. Der Kontext ist vergiftet. Starten Sie eine frische Sitzung mit einem besseren Prompt und besserem Vorab-Kontext. Korrekturspiralen verschwenden Zeit und verschlechtern die Ausgabequalität.

6. Isolieren Sie Subagent-Arbeit. Verwenden Sie Subagenten für Erkundungsaufgaben: unbekannten Code untersuchen, Ansätze recherchieren, Abhängigkeiten kartieren. Verwenden Sie sie nicht für einfache Lesevorgänge oder Suchen. Der Overhead lohnt sich nicht für unkomplizierte Operationen, aber die Isolation ist wertvoll für Aufgaben, die den Kontext Ihrer Hauptsitzung verschmutzen könnten.

Anti-Patterns, die Sie vermeiden sollten

Das sind die Fehler, die am meisten Zeit kosten, während sie sich produktiv anfühlen.

Die Alles-rein-CLAUDE.md. Jede Präferenz, jede Regel, jeden Randfall in eine einzelne Datei stopfen. Die AI beginnt Anweisungen zu ignorieren, weil das Signal-Rausch-Verhältnis zu niedrig ist. Weniger ist mehr. Seien Sie kompromisslos.

Nie den Kontext löschen. Die gesamte Tagesarbeit in einer Sitzung erledigen. Am Nachmittag ist das Kontextfenster voll mit irrelevantem Gesprächsverlauf vom Morgen, und die Leistung des Modells hat sich merklich verschlechtert.

Korrekturspiralen. Die AI-Ausgabe fixen, dann den Fix fixen, dann den Fix des Fixes fixen. Jede Korrektur fügt Rauschen zum Kontext hinzu. Nach zwei Korrekturen sind Sie besser dran, frisch anzufangen.

Endlose Erkundung. Subagenten auf unbegrenzte Forschungsmissionen ohne klare Grenzen schicken. Sie verbrauchen Kontext, liefern marginal relevante Informationen und hinterlassen die Hauptsitzung überladen.

Hoffnungsbasierte Kontinuität. Annehmen, dass das Modell sich an wichtige Details von früher in einem langen Gespräch “erinnert”. Es verarbeitet das volle Kontextfenster, aber die Aufmerksamkeit ist nicht gleichmäßig. Kritische Informationen aus frühen Runden werden verwässert. Verwenden Sie Übergabe-Dokumente und Specs, um wichtigen Kontext explizit zu bewahren.

Häppchenweise Information liefern. Dem Modell Anforderungen stückweise über mehrere Runden geben statt das vollständige Bild vorab zu liefern. Der 39% Leistungsabfall ist real und vermeidbar.

Der Multiplikator-Effekt

Context Engineering ist keine eigenständige Fähigkeit. Es ist die Fähigkeit, die jede andere Fähigkeit effektiver macht. Besserer Kontext bedeutet bessere Codegenerierung, bessere Verifikation, besseres Debugging, bessere Architekturentscheidungen. Es ist der Unterschied zwischen gegen die AI kämpfen und sie dirigieren.

Die Entwickler, die Context Engineering meistern, schreiben keine besseren Prompts. Sie schaffen Umgebungen, in denen selbst einfache Prompts exzellente Ergebnisse liefern. Das ist der Multiplikator. Das ist die Fähigkeit, in die es sich lohnt zu investieren.

Beginnen Sie mit Ihrer CLAUDE.md. Prüfen Sie jede Zeile. Erkunden Sie dann den Rest der Methodik, um zu sehen, wie Context Engineering in einen vollständigen Verifikations-Workflow passt.

Sources: Martin Fowler / Anthropic on Context Engineering · Arize, “CLAUDE.md Optimization Study” · Berkeley, “Tool Overload in AI Agents” · Microsoft/Salesforce, “Sequential Information Degradation in LLMs”

Der komplette Leitfaden

Paranoide Verifikation meistern

Über 80 Seiten Methodik, Prompt-Muster, Verifikationssysteme und praxisnahe Strategien. Alles, was Sie brauchen, um KI-gestützte Software zu entwickeln, der Sie wirklich vertrauen können.

$19 · PDF, 80+ Seiten