Standpunkt · AI Operations
Agentische KI ist da. Die schwierigere Frage ist das Wie.
Agentische KI — Systeme, die mehrschrittig handeln, statt einen Prompt nach dem anderen zu beantworten — hat es in weniger als zwei Jahren vom Forschungslabor in den produktiven Stack geschafft. Die Frage hat sich verschoben. Führungskräfte fragen nicht mehr, ob eingeführt werden soll. Sie fragen, warum die meiste Einführung nicht in der GuV auftaucht.
Peter Matysiak · Berlin · April 2026 · 8 Min
Ein Werkzeug, das seine Werkzeug-Metapher überwachsen hat.
Agentische KI ist keine Forschungs-Kuriosität mehr. Gartner nennt sie zwei Jahre in Folge den wichtigsten strategischen Technologie-Trend. McKinseys State of AI-Umfrage 2024 berichtet, dass rund 72% der Organisationen KI in mindestens einer Geschäftsfunktion einsetzen, und dass die regelmäßige Nutzung generativer KI innerhalb eines Jahres etwa verdoppelt wurde. Einführung auf Vorstandsebene findet statt. Der finanzielle Effekt ist uneinheitlich.
Die Lücke zwischen Einführung und Wirkung ist kein Argument gegen Agenten. Sie ist ein Argument darüber, was "Einführung" tatsächlich bedeutet. Ein Agent, der auf einen bestehenden Prozess aufgesetzt wird, ist ein Copilot. Ein Prozess, der um das herum neu gestaltet wird, was Agenten zuverlässig tun, ist ein neues Operating Model. Das eine spart Minuten. Das andere bewegt Marge.
Die meisten KI-Ausgaben stecken heute bei der Augmentierung.
Im Augmentierungsmuster sitzt der Agent neben dem Menschen und hilft bei konkreten Aufgaben innerhalb einer bestehenden Rolle: E-Mail entwerfen, Dokument zusammenfassen, Chart erstellen. Ein Schritt wird kürzer. Die Aufgabe selbst ändert sich nicht. Die ROI-Decke ist bescheiden — ein paar Prozentpunkte Produktivität gegen Lizenzkosten und etwas Change-Aufwand.
Im Autonomiemuster führt der Agent den Prozess end-to-end aus. Menschen wechseln vom Ausführen zum Überwachen — Scope setzen, Ausnahmen prüfen, Ergebnisse auditieren, eingreifen, wenn das System falsch liegt. Die Rolle verschiebt sich vom manuellen Steuern zur Flugsicherung. Die ROI-Decke liegt eine Größenordnung höher — aber es erfordert, Rolle, Prozess und Aufsichtsebene neu zu denken. Das ist Arbeit am Operating Model, nicht Tool-Rollout.
Die Harvard Business Review hat das in einer Ausgabe vom Februar 2026 unter dem Stichwort Agent Management mit anderen Worten auf den Punkt gebracht: Die relevante Disziplin ist Workforce Management — übertragen auf eine Belegschaft, die zufällig aus Software besteht.
Das gleiche Argument vor dreißig Jahren.
Lean Manufacturing hat zwei Geschichten. Die eine ist die Geschichte des Kostensparens: Bestände runter, Puffer runter, Personal runter, einmalige Margenwirkung mitnehmen, weiter. Diese Geschichte endete an vielen Stellen schlecht — dünne Puffer, die unter dem ersten Schock brachen, Teams, die aufhörten, sich zu verbessern, weil nichts mehr zu schneiden war.
Die andere ist die Geschichte, die Womack und Jones in The Machine That Changed the World erzählt haben: Lean als Betriebssystem. Fluss, Standardarbeit, eine sichtbare Problemlösungskultur, Reinvestition freigesetzter Kapazität in Qualität und neue Produkte. Diese Geschichte hat über Jahrzehnte kompoundiert.
Agentische KI trägt dieselbe Gabelung. Als Kostensparwerkzeug eingeführt, liefert sie eine kurzlebige Einsparung und lässt das Betriebssystem unberührt. Als Veränderung des Operating Models eingeführt, ermöglicht sie Arbeit, die vorher nicht möglich war, und schafft Kapazität für Wachstum. Das Playbook ist nicht neu. Die Technologie ist es.
Wo Agenten funktionieren — und wo nicht.
Eines der klarsten empirischen Werkstücke zur Zusammenarbeit von Mensch und KI kommt von Harvard Business School und BCG (Dell'Acqua et al., Navigating the Jagged Technological Frontier, 2023). Beraterinnen und Berater mit Zugang zu GPT-4 lagen 40% besser bei Aufgaben innerhalb der Leistungsfähigkeitsgrenze des Modells — und 19% schlechter bei Aufgaben außerhalb davon. Dieselben Menschen, dasselbe Werkzeug, unterschiedliche Probleme.
Die Aufgabe des Operations-Verantwortlichen ist, diese Linie für die eigene Organisation ehrlich zu ziehen. Grob gesagt: Agenten sind gut bei Recherche und Synthese, bei strukturierter Datenumformung, im Orchestrieren anderer Tools, beim Entwurf, bei der Klassifikation, bei der Extraktion aus unordentlichen Inputs und im Befolgen eines gut dokumentierten Prozesses. Schwach sind sie bei Kontext, den Sie nicht aufgeschrieben haben, bei langfristigem Urteil, beim Bemerken der eigenen Verwirrung und bei der Unterscheidung einer plausibel klingenden falschen Antwort von einer korrekten.
Die schwierigste Fähigkeit ist, flüssiger, kompetent klingender Sprache zu misstrauen. Beobachtung aus der täglichen Arbeit mit KI-Agenten
Flüssigkeit ist nicht Korrektheit. Ein verlässlicher Agent ist einer, der übergibt, wenn er sollte — nicht einer, der nie aufhört zu reden.
Zwei Pfade, beide ehrlich.
Agentische KI verdient ihr Geld über zwei Routen, beide erfordern Veränderungen am Operating Model.
Fähigkeits-Erweiterung. Menschen tun Arbeit, die sie vorher nicht tun konnten. Eine einzelne Analystin, die eine Aufgabe übernimmt, für die vorher ein ganzes Team nötig war. Ein Außendienstingenieur, der ein technisches Dokument in einer anderen Sprache in Echtzeit verstehen kann. Ein Mittelständler, der Kundenforschung in einem Umfang betreiben kann, für den vorher eine Beratung einen Monat gebraucht hätte. Dieser Pfad sieht aus wie Wachstum, nicht wie Einsparung.
Kapazitäts-Freisetzung. Freigewordene Zeit wird in höherwertige Arbeit umgeleitet — neue Produkte, Qualitätsverbesserung, Kundenentwicklung. Das ist das Lean-Playbook, angewandt auf Wissensarbeit. Wird freigesetzte Kapazität ausschließlich in Personalabbau umgeleitet, bekommt die Organisation eine einmalige Einsparung und es hört auf. Wird sie in Wachstum umgeleitet, kompoundieren die Gewinne.
Keine der beiden Routen taucht in der GuV auf, solange nicht der umgebende Prozess und die Rollengrenze mitverändert werden. Ein Copilot auf einem unveränderten Prozess liefert unveränderte Marge. Das ist das typische Muster hinter der Lücke zwischen Einführung und Wirkung, die McKinsey und andere regelmäßig berichten.
Eine Reihenfolge, die tatsächlich funktioniert.
Sechs Schritte, in dieser Reihenfolge. Einen davon zu überspringen ist das übliche Muster des Scheiterns.
-
Literacy
Die Führung und die erste Kohorte an Praktikerinnen und Praktikern verstehen, was Agenten tun und was nicht — auf Ihren Daten, nicht in einem Anbieter-Demo. Ohne das ist keine Governance-Entscheidung belastbar.
-
Use-Case-Mapping
Die Wertschöpfungskette abschreiten. Arbeit sichtbar machen, die repetitiv, fehleranfällig, zeitintensiv und datenreich ist. Nach Impact und Reifegrad priorisieren, nicht nach Neuheit. Zehn Kandidaten; drei zum Start.
-
Tooling
Mit Reversibilität im Kopf wählen. Lock-in vermeiden, wo es nichts bringt. Die interne Fähigkeit aufbauen, den Motor später zu tauschen — Modelle ändern sich schneller als Geschäftsprozesse.
-
Operating Model
Die Rollengrenze neu ziehen. Agenten besitzen, was sie zuverlässig können. Menschen überwachen, prüfen Ausnahmen, eskalieren. Rollenbeschreibungen, RACI und Erfolgskennzahlen ändern sich gleichzeitig mit dem Tool — nicht danach.
-
Governance
Datenschutz, Sicherheit, Audit-Trail, Eskalationspfade. EU AI Act ist für die meisten operativen Anwendungsfälle nicht optional und deutlich einfacher, wenn er von Anfang an eingeplant ist, statt nachträglich aufgesetzt zu werden.
-
Messung
Token-Kosten, Adoptionsrate, Qualitätsergebnisse, Eskalationshäufigkeit. Stoppen, was nicht funktioniert. Skalieren, was funktioniert. Das ist ein laufender Posten, keine Projektabnahme.
Multiply, in vier Tiefen.
Der Foundation-Workshop deckt Literacy und die ersten zwei bis drei Use Cases ab — das Minimum, um eine belastbare nächste Entscheidung zu treffen. Der Builder-Tier baut interne Fähigkeit auf, damit das Team eigene Werkzeuge schreibt. Der Strategist-Tier hebt das Gespräch auf Portfolio-Denken, Business Cases und Governance. Maßgeschneiderte Mandate begleiten die Implementierung an der Seite Ihres Teams, typischerweise gemeinsam mit interner Entwicklung und Operations.
Keiner dieser Tiers versucht, die KI-Einführung der Organisation zu besitzen. Das Ziel ist, interne Fähigkeit zurückzulassen — passend zum Grundsatz des eingebauten Ausstiegs, der auch sonst für diese Praxis gilt.
Woher diese Argumente stammen.
Eine kurze, meinungsstarke Leseliste. Jedes dieser Werke ist es wert, im Ganzen gelesen zu werden. Keines sollte unkritisch gelesen werden.
Darüber sprechen?
Ein dreißigminütiges Gespräch produziert in der Regel mindestens eine Entscheidung, die das Thema voranbringt — auch wenn die Antwort "noch nicht" oder "nicht mit dieser Praxis" lautet. Die nützlichsten Gespräche sind die, in denen eine Führungskraft den Auslöser in einem Satz benennen kann: ein stecken gebliebenes Pilotprojekt, eine Anbieterentscheidung, eine Use-Case-Shortlist, die nicht zündet.