Journal

Du willst KI integrieren. Meistens ist das kein technischer Wunsch, sondern eine Flucht vor der eigenen operativen Unordnung. Wenn du diesen Weg wirklich gehen musst – und die Betonung liegt auf dem Zwang, nicht auf der Lust –, dann musst du verstehen, worauf du dich einlässt.

Wir kartieren das Gelände nach dem Verwüstungspotenzial. Hier sind die drei Zonen der Eskalation.

Zone 1: Klar (das Werkzeug)

Deterministisch. Sauber. Das einzige Gebiet, in dem du relative Sicherheit hast.

Isoliert: die reine Funktion

Das operative Design → Die Doktrin lautet: „Tu eine Sache“ – verlässlich, mit minimalem Zustand. Wir reden von deterministischen Prompts, engen Schemata und einer extrem kleinen Angriffsfläche. Das ist der Wegwerf-Soldat im Feld.

Die Kosten-Struktur → Die Kosten sind vorhersehbar, Caching ist trivial, der Evaluations-Aufwand ist minimal.

Die entropische Steuer → Das Risiko ist nicht der Laufzeit-Fehler, sondern der Wartungs-Sumpf. Die Gefahr ist der „Death by a thousand tiny agents“ – tausend kleine, isolierte Skripte, die irgendwann niemand mehr wartet.

Integriert: die lokale Abfrage

Das operative Design → Immer noch „Tu eine Sache“, aber unter Respektierung deiner lokalen Realität. Das erfordert leichtes Retrieval (RAG) und strikte Rechteverwaltung.

Die Kosten-Struktur → Günstig im Betrieb, aber signifikante Fixkosten beim Onboarding. Du musst Schemata definieren, Glossare anlegen und Zugriffsrechte klären.

Die entropische Steuer → Die Wartung der Wahrheit. Die laufenden Kosten entstehen nicht durch die KI, sondern durch die Veralterung deines Kontexts. Sobald sich deine interne Definition von „Active User“ ändert, lügt der Bot. Die Instandhaltung der Wahrheit ist teurer als die Generierung der Antwort.

Zone 2: Kompliziert (die Fabrik)

Mehrstufige Prozesse. Es gibt „richtig“ und „falsch“. Hier beginnt die Bürokratie.

Isoliert: der Standard-Workflow

Das operative Design → Mehrstufige Arbeit, die generalisierbar ist. Denk an: Dekomposition von Aufgaben, Checklisten, Datentransformationen.

Die Kosten-Struktur → Mittlere Baukosten, moderater Laufzeit-Aufwand.

Die entropische Steuer → Du zahlst für Workflow-Tiefe. Der entscheidende Punkt: Die Effizienz kommt hier nicht durch die KI, sondern durch Routing und Short-Circuiting – also durch das Vermeiden von KI-Aufrufen, wo einfache Logik ausreicht.

Integriert: der operative Eingriff

Das operative Design → Mehrstufige Workflows, die tief im Schlamm deiner Firmensysteme gründen. Tickets schieben, Kapazitäten planen, Genehmigungen einholen. Braucht absolut zuverlässige Tool Calls und lückenlose Audit Trails.

Die Kosten-Struktur → Teuer im Bau (Integrationen, Observability). Hoch im Betrieb (Verifikations-Loops).

Die entropische Steuer → Prozess-Offenbarungseid. Das größte Risiko sind Ausnahmen (Edge Cases). Die KI deckt gnadenlos auf, wo deine Prozesse eigentlich gar nicht existieren, sondern nur auf menschlicher Improvisation und informellen Absprachen basieren. Du automatisierst keine Prozesse, du automatisierst das Chaos.

Zone 3: Komplex (das Minenfeld)

Strategie, Politik, Ambiguität. Hier gibt es kein „richtig“, nur „Konsequenzen“.

Warnung → Das ist die Zone des Moral Hazard. Hier verstecken sich Akteur:innen, die Budget verbrennen wollen, ohne Verantwortung für das Ergebnis zu übernehmen.

Isoliert: die Synthese

Das operative Design → Offenes Denken ohne spezifisches Organisationswissen: Recherche, Strategie-Entwürfe, Synthese von Ambiguität. Das Problem: Es ist unmöglich zu definieren, wann die Arbeit „fertig“ ist.

Die Kosten-Struktur → Die Laufzeitkosten können explodieren.

Die entropische Steuer → Qualitäts-Illusion. Da Qualität hier subjektiv ist, ist die Evaluation der teuerste Posten. Ohne harte Abbruchbedingungen (Guardrails) baust du eine Maschine, die Geld verbrennt, um philosophische Selbstgespräche (Infinite Noodling) zu führen.

Integriert: die autonomen Agenten

Das operative Design → Agenten, die in realen soziotechnischen Systemen mitspielen: Priorisierung, Verhandlung zwischen Teams, Forecasting. Die Frage „Was sollen wir tun?“ unter realen politischen Zwängen und unklaren Daten.

Die Kosten-Struktur → Die höchsten Gesamtkosten. Nicht wegen Compute, sondern wegen Organizational Debt: Governance, Rechenschaftspflicht, Genehmigungsketten, Incident Response.

Die entropische Steuer → Haftungsdiffusion. Probleme zweiter Ordnung wie der Unintentional Insider Threat. Ein autonomer Agent hat keine Loyalität und kennt keine Angst. Er trianguliert harmlose Metadaten (z. B. Kalenderdaten und Reisekosten) zu strategischen Geheimnissen (z. B. eine geplante Übernahme) und gibt diese Information durch naive Inferenz im falschen Kontext preis.


Wenn du Zone 3 betrittst, gilt das Protokoll der persönlichen Haftung:

  1. Scope-Zwang → Ohne extrem engen Scope und klare Entscheidungskompetenzen verbrennst du Kapital, ohne Ergebnisse zu liefern.
  2. Skin in the Game → Wer dieses System baut, muss persönlich haften. Wenn du nicht bereit bist, für die Halluzination deines Agenten gefeuert zu werden, darfst du ihn nicht deployen.
  3. Realitäts-Check → Alles andere ist keine Innovation, sondern organisatorische Brandstiftung auf Firmenkosten.

Resoniert das? Schreib mir.