KI-Agenten: Brillant bei klaren Aufgaben, aber nichts für Selbstbauer
Ein neuer Mitarbeiter fragt nach, wenn etwas unklar ist. Ein KI-Agent nicht. Er arbeitet mit dem was er bekommt — und liefert im Zweifel überzeugend klingende falsche Ergebnisse.
Das ist der Grund, warum KI-Agenten bei manchen Aufgaben bereits exzellent funktionieren — und bei anderen spektakulär scheitern. Datenabgleiche, Dokumentenprüfung, regelbasierte Auswertungen: Hier kann der Agent sein eigenes Ergebnis prüfen. Versuchen, prüfen, korrigieren — in einer Schleife, bis es passt. Ohne Pause, ohne Flüchtigkeitsfehler, ohne Motivationstief am Freitagnachmittag.
Wo das Ergebnis überprüfbar ist, wird KI verlässlich.
Aber zwischen "das könnte ein Agent machen" und "der Agent macht es zuverlässig" liegt ein Graben, den die meisten unterschätzen. Die Aufgabe sauber spezifizieren. Schnittstellen zu den richtigen Datenquellen herstellen. Fehlerfälle abfangen. Das Ganze in bestehende Abläufe integrieren, ohne sie zu sprengen. Das erfordert Leute die sowohl die Technologie als auch die fachlichen Prozesse im Detail verstehen.
Das Interessante: Die Formate dafür existieren längst. Product Requirements Documents, Scope-of-Engagement-Dokumente, Prozessbeschreibungen — jede Branche hat ihre eigenen. Ethan Mollick von der Wharton Business School hat das kürzlich auf den Punkt gebracht: All diese Formate funktionieren erstaunlich gut als Grundlage für agentische Arbeit.
Nur: Die meisten Unternehmen haben sie nicht. Oder nicht aktuell. Oder nicht so präzise, dass ein Agent das Ergebnis selbst prüfen kann. Keine Interpretationsspielräume, keine "das weiß man halt"-Annahmen.
Die meisten scheitern nicht an der KI — sondern daran, dass sie ihren eigenen Prozess nie sauber dokumentiert haben.
Für klar spezifizierbare Aufgaben ist die Technologie bereit. Die Frage ist, ob es die Organisation auch ist.