Während sich künstliche Intelligenz von einfachen Chatbots zu autonomen „Agenten“ entwickelt, die in der Lage sind, komplexe Arbeitsabläufe auszuführen, ist eine grundlegende Architekturdebatte entstanden. Für Unternehmen besteht die Herausforderung nicht mehr nur darin, einen Agenten aufzubauen, sondern auch darin, ihn zu verwalten, zu steuern und zu skalieren.
Die Branche erlebt derzeit eine strategische Spaltung in der Art und Weise, wie der KI-„Stack“ aufgebaut ist. Google baut eine zentralisierte Verwaltungsebene auf, die sich auf Governance konzentriert, während Amazon Web Services (AWS) sich auf einen ausführungsorientierten Ansatz konzentriert, der auf Geschwindigkeit ausgelegt ist.
Zwei Philosophien des Managements
Die Divergenz zwischen diesen beiden Technologiegiganten zeigt, wie unterschiedliche Organisationen ihren KI-Einsatz priorisieren:
1. Google: Der Governance-First-Ansatz
Google positioniert seine Suite Gemini Enterprise als zentralisierte „Kontrollebene“. Durch die Integration seiner Angebote unter einem einzigen Dach behandelt Google KI-Agenten ähnlich wie moderne Software-Infrastrukturen (wie Kubernetes).
– Struktur: Google bietet eine einheitliche Plattform, auf der Sicherheit, Identität und Richtliniendurchsetzung in das System integriert sind.
– Ziel: Bereitstellung einer „Eingangstür“ für Unternehmen, um sicherzustellen, dass Agenten mit zunehmender Autonomie innerhalb der strengen Unternehmensleitlinien bleiben.
– Fokus: Langfristige Stabilität und zentralisierte Aufsicht.
2. AWS: Der Velocity-First-Ansatz
AWS geht mit seinem Bedrock AgentCore einen anderen Weg, indem es für die Ausführungsschicht optimiert. Anstelle einer umfangreichen Verwaltungsebene stellt AWS „Kabelbäume“ bereit.
– Struktur: Mithilfe eines konfigurationsbasierten Ausgangspunkts (unterstützt durch das Open-Source-Framework Strands Agents) können Entwickler schnell die Aufgaben, Modelle und Tools eines Agenten definieren.
– Ziel: Verkürzung der Zeit, die ein Agent benötigt, um von einem Konzept zu einem Live-Produkt zu gelangen.
– Fokus: Schnelle Bereitstellung und einfache Integration.
Die neue Herausforderung: „State Drift“
Diese architektonische Kluft wird durch ein technisches Phänomen verursacht, das als Zustandsdrift bekannt ist.
In den Anfängen der KI waren Interaktionen „zustandslos“ – Sie stellten eine Frage und die KI antwortete. Moderne Agenten sind jedoch „zustandsbehaftet“; Sie verfügen über ein Gedächtnis, einen Kontext und sich entwickelnde Ziele. Da diese Agenten über längere Zeiträume laufen, kann ihr innerer „Zustand“ von der Realität abgekoppelt werden. Datenquellen ändern sich, Tools geben widersprüchliche Informationen zurück und der Kontext des Agenten ist veraltet.
Dies macht die Agentenzuverlässigkeit zu einem systemtechnischen Problem und nicht nur zu einem sprachlichen. Wenn ein Agent den Überblick über seinen Kontext verliert, wird er weniger wahrheitsgetreu und anfälliger für Fehler. Das Governance-Modell von Google versucht, dies durch Aufsicht zu verhindern, während das Harness-Modell von AWS darauf abzielt, dies durch effiziente Ausführung zu verwalten.
Risikomanagement: Bauen vs. Kaufen
Die Wahl zwischen diesen beiden Ansätzen hängt letztendlich von der Risikobereitschaft eines Unternehmens ab. Der Markt spaltet sich derzeit in zwei unterschiedliche Schichten des KI-Stacks auf:
- Die Rapid Deployment Layer: Unter der Leitung von AWS, Anthropic und OpenAI zielen diese Tools darauf ab, die Eintrittsbarriere zu senken. Sie eignen sich ideal für experimentelle Aufgaben oder Prozesse, die sich nicht direkt auf die Haupteinnahmequellen auswirken.
- Die Governance-Ebene: Unter der Leitung von Google ist dieser Ansatz für kritische Geschäftsprozesse mit hohem Risiko konzipiert, bei denen Fehler erhebliche Folgen haben können.
„Während die Frage „Agent-Harness vs. Laufzeit“ oft als „Build vs. Buy“ wahrgenommen wird, ist dies in erster Linie eine Frage des Risikomanagements“, bemerkt Rafael Sarim Oezdemir von EZContacts.
Fazit
Die KI-Landschaft bewegt sich weg von fragmentierten „Promptketten“ hin zu hochentwickelten, autonomen Systemen. Für Unternehmen geht es bei der strategischen Entscheidung nicht mehr nur darum, welches Modell am intelligentesten ist, sondern auch darum, ob sie ein System benötigen, das für schnelles Experimentieren konzipiert ist oder eines, das für strenge Kontrolle ausgelegt ist.
