Es herrscht eine spezifische Pathologie in modernen Organisationen und Unternehmungen: Entscheidungen fallen, Katastrophen treten ein, doch die Urheber:innen fehlen. Niemand ist auffindbar, der die Entscheidung getätigt hat.
Das ist kein Zufall und auch kein moralisches Versagen, sondern eine Design-Entscheidung für Stabilität.
Organisationen wurden schleichend zu Verantwortungs-Senken umgebaut. Es sind Systeme, deren primärer Zweck nicht mehr die Lösung von Problemen ist, sondern die Absorption von Schuld durch die Erzeugung einer Simulation von Kontrolle.
Um diese Mechanik zu zerlegen, erfordert es Antworten auf zwei Fragen, die das System verschleiern muss:
- Wohin verschwindet die Verantwortung?
- Wer macht wirklich die Arbeit?
1. Wohin verschwindet die Verantwortung?
In einem gesunden System ist eine Entscheidung ein bewusster Akt im Territorium der Realität. In unseren modernen Maschinen wird die Entscheidung an Prozesse, Algorithmen oder „Best Practices“ ausgelagert.
Der Grund dafür ist das Bedürfnis nach Lesbarkeit. Damit ein komplexes System zentral steuerbar erscheint, muss die chaotische Realität vereinfacht, standardisiert und in Metriken übersetzt werden. Das Management entscheidet nicht über die Realität, sondern über eine Karte der Realität. Dabei wird das entscheidende lokale, implizite Wissen – die Mētis, ohne das kein Prozess in der Praxis funktioniert – als „Rauschen“ herausgefiltert.
Doch das fundamentale Gesetz der Verantwortlichkeit bleibt bestehen: Du bist nur in dem Maße verantwortlich für ein Ergebnis, in dem du die Macht hattest, es zu ändern.
Wenn der Sachbearbeiter, die Managerin oder sogar der CEO nur „dem Prozess folgt“, „die Policy exekutiert“ oder „auf die KPI-Abweichung reagiert“, hat niemand entschieden. Das System hat gemäß seiner Programmierung gehandelt. Das Ergebnis ist eine organisierte Unmündigkeit. Wir bauen komplexe Strukturen nicht, um Ergebnisse zu optimieren, sondern um die persönliche Haftung für schlechte Ergebnisse in der prozeduralen Abstraktion unsichtbar zu machen.
2. Wer macht wirklich die Arbeit?
Die Kybernetik deckt hier den eigentlichen Skandal auf. Arbeit – physikalisch und systemisch – ist der Aufwand zur Bewältigung von Realität. Realität bedeutet Reibung, Chaos, Unvorhersehbarkeit und menschliche Irrationalität: „Varietät“.
Die Dysfunktion entsteht durch eine fatale Asymmetrie in der Risikoverteilung:
Das Management der Simulation
Dieser Teil des Systems hat sich von der Realität entkoppelt, um in der sauberen Welt der Modelle und Tabellen zu operieren. Diese Ebene profitiert von Konvexität: Sie haben die Upsides (Bonus bei Erfolg), aber sind vor den Downsides geschützt (kein direkter Schmerz bei Fehlentscheidungen), da sie die Komplexität nicht berühren. Sie steuern die Simulation, nicht das System.
Der Puffer
Die Frontlinie produziert nicht nur. Sie fungiert als Versicherungspolice des Systems gegen die Realität. Sie operiert in einem permanenten Double Bind: Sie müssen die strikten Vorgaben der Simulation (Prozess/Effizienz) erfüllen und gleichzeitig das Chaos der Realität (unzufriedene Kunden, defekte Werkzeuge, unvorhergesehene Ausfälle) bewältigen, das im Plan nicht vorgesehen ist.
Die Antwort auf die Frage „Wer macht eigentlich die Arbeit?“ lautet: Die Arbeit erledigen die, die die Lücke zwischen Karte und Territorium schließen. Die, die die Volatilität absorbieren. Die, die die Wut der Kund:innen abfangen, die fehlenden Ressourcen improvisieren und den Prozess-Wahnsinn durch menschlichen Verschleiß ausgleichen.
Die ultimative Senke
Ein Schatten aus der Vergangenheit, genauer aus einem IBM Training Manual von 1979, erinnert uns daran:
„A computer can never be held accountable, therefore a computer must never make a management decision.“
Wir haben diese Warnung nicht nur ignoriert, wir haben ihr Gegenteil zum Geschäftsmodell gemacht.
Künstliche Intelligenz und algorithmisches Management setzen sich nicht deshalb durch, weil sie qualitativ „besser“ entscheiden. Sie dominieren häufig, weil sie die perfekte Verantwortungs-Senke darstellen. Sie skalieren Unverantwortlichkeit durch eine Black Box, die sich jeder Befragung entzieht. Wenn ein Algorithmus entscheidet, wer den Kredit bekommt, wen wir einstellen, welche Route gefahren wird, mit welchem Ergebnis die Daten analysiert werden, ist die Black Box schuld.
Das Problem: Diese Modelle sind Hyperrealität. Sie optimieren auf mathematische Kohärenz, nicht auf biologische Viabilität. In diesem Zustand geht die Karte dem Gebiet voraus: Wenn das Modell sagt, der Prozess sei effizient, gilt das als Wahrheit, selbst wenn die physische Realität kollabiert. Wenn die Karte halluziniert oder optimiert, bis das Territorium bricht, muss biologische Intelligenz einspringen.
Die Gig Economy demonstriert das: Der Algorithmus optimiert die Route auf mathematische Effizienz; Fahrer:innen absorbieren den Stress, den Verkehr und das physische Risiko. Die Maschine entscheidet, der Mensch blutet.
Das de-zerebrierte System
Wenn die, die entscheiden, den Schmerz ihrer Fehler nicht spüren, weil er unten absorbiert wird, bricht die Lernschleife (der OODA-Loop). Das System kann beobachten und orientieren, aber das Feedback der Handlung erreicht nie das Gehirn.
Es wird, in der Sprache von Stafford Beer, zu einer „de-zerebrierten Katze“. Es kann noch fressen und laufen (operative Hektik), aber es hat kein Bewusstsein mehr für Gefahr (strategische Blindheit).
Das Ende dieses Pfades ist nicht Ineffizienz. Es ist der Kollaps durch akkumulierte Fragilität. Ein System, das seine eigenen Warnsignale systematisch als „Rauschen“ filtert, steuert blind in die nächste Wand.
Manöver für die Wiederherstellung von Agency
Wir müssen die Mechanik umkehren, die Senken verstopfen und den Rückfluss der Konsequenzen erzwingen.
Manöver 1: der „Rote Griff“
In alten Zügen gab es die Notbremse, den „Roten Griff“. Jeder Passagier konnte den Zug stoppen, wenn Gefahr drohte. Moderne Organisationen haben diesen Griff abmontiert, um „Effizienz“ zu steigern und Störungen der Simulation zu vermeiden; aus falscher Angst, die gesamte Organisation würde davon betroffen sein, statt nur die betroffene Produktionslinie.
Die Intervention → Installiere den Roten Griff neu. Schaffe einen Mechanismus, mit dem alle Mitarbeiter:innen – unabhängig von der Hierarchie – ein sofortiges „Veto“ einlegen können, wenn die Realität nicht mehr zum Plan passt. Das ist kein Vorschlagswesen. Es ist ein „algedonisches Signal“ (Schmerz-Signal), das die Filter der mittleren Ebenen durchbricht und direkt zur Führung durchschlägt. Es zwingt das System, das Territorium anzusehen, statt auf die Karte zu starren.
Manöver 2: Skin in the Game
Das Problem moderner Management-Anreize ist das Prinzip dine and dash. Kurzfristige Optimierung führt zur sofortigen Gratifikation, während der langfristige Schaden (tail risk) erst sichtbar wird, wenn die Akteur:innen längst weitergezogen sind. Die beschränkte Haftung wirkt als Schild gegen die Realität.
Die Intervention → Koppele Reputation und Belohnung an langfristige Konsequenzen. Wer ein Projekt initiiert, bleibt haftbar, bis die Ergebnisse im System realisiert sind – unabhängig vom Anstellungsverhältnis. Ein gesundes System erlaubt es niemandem, die Party zu verlassen, bevor die Rechnung beglichen ist.
Die strategische Implikation
Suche in deinem Unternehmen nach der Verantwortungs-Senke. Wo hörst du Sätze wie „Der Algorithmus hat das so berechnet“ oder „Das ist eben der Prozess“? Genau dort stirbt die Agency.
Deine Aufgabe als Führungskraft ist nicht, diese Senken zu bauen, um dich sicher zu fühlen. Deine Aufgabe ist es, sie aufzubrechen. Sorge dafür, dass der Schmerz der Realität wieder dort ankommt, wo die Entscheidung getroffen wird. Nur so wird das System wieder intelligent.
Resoniert das? Schreib mir.