La grande division des agents IA : Google contre AWS sur le contrôle et l’exécution

14

Alors que l’intelligence artificielle évolue de simples chatbots vers des « agents » autonomes capables d’exécuter des flux de travail complexes, un débat architectural fondamental a émergé. Pour les entreprises, le défi ne consiste plus seulement à créer un agent, mais également à le gérer, le gouverner et le faire évoluer.

L’industrie est actuellement témoin d’une scission stratégique dans la manière dont la « pile » d’IA est construite. Google construit une couche de gestion centralisée axée sur la gouvernance, tandis que Amazon Web Services (AWS) se concentre sur une approche axée sur l’exécution et conçue pour la rapidité.

Deux philosophies de gestion

La divergence entre ces deux géants de la technologie illustre la manière dont différentes organisations priorisent leur déploiement d’IA :

1. Google : l’approche axée sur la gouvernance d’abord

Google positionne sa suite Gemini Enterprise comme un « plan de contrôle » centralisé. En intégrant ses offres sous un même toit, Google traite les agents d’IA comme une infrastructure logicielle moderne (telle que Kubernetes).
Structure : Google fournit une plate-forme unifiée où la sécurité, l’identité et l’application des politiques sont intégrées au système.
Objectif : Fournir une « porte d’entrée » aux entreprises, en garantissant qu’à mesure que les agents deviennent plus autonomes, ils restent soumis aux garde-fous stricts de l’entreprise.
Focus : Stabilité à long terme et surveillance centralisée.

2. AWS : l’approche axée sur la vitesse d’abord

AWS, via son Bedrock AgentCore, emprunte une voie différente en optimisant la couche d’exécution. Au lieu d’une lourde couche de gestion, AWS fournit des « harnais ».
Structure : À l’aide d’un point de départ basé sur la configuration (optimisé par le framework open source Strands Agents), les développeurs peuvent définir rapidement les tâches, les modèles et les outils d’un agent.
Objectif : Réduire le temps nécessaire pour faire passer un agent d’un concept à un produit réel.
Focus : Déploiement rapide et facilité d’intégration.

Le défi émergent : la « dérive de l’État »

Cette fracture architecturale est motivée par un phénomène technique connu sous le nom de dérive d’état.

Aux débuts de l’IA, les interactions étaient « apatrides » : vous posiez une question et l’IA répondait. Cependant, les agents modernes sont « avec état » ; ils possèdent de la mémoire, un contexte et des objectifs évolutifs. À mesure que ces agents fonctionnent pendant des périodes plus longues, leur « état » interne peut devenir déconnecté de la réalité. Les sources de données changent, les outils renvoient des informations contradictoires et le contexte de l’agent devient obsolète.

Cela fait de la fiabilité des agents un problème d’ingénierie système plutôt qu’un simple problème linguistique. Si un agent perd la trace de son contexte, il devient moins véridique et plus sujet aux erreurs. Le modèle de gouvernance de Google cherche à éviter cela grâce à une surveillance, tandis que le modèle de harnais d’AWS cherche à le gérer grâce à une exécution efficace.

Gestion des risques : créer ou acheter

Le choix entre ces deux approches dépend en fin de compte de l’appétit pour le risque de l’entreprise. Le marché se divise actuellement en deux couches distinctes de la pile d’IA :

  1. La couche de déploiement rapide : menés par AWS, Anthropic et OpenAI, ces outils visent à abaisser la barrière à l’entrée. Ils sont idéaux pour les tâches ou processus expérimentaux qui n’ont pas d’impact direct sur les principales sources de revenus.
  2. La couche de gouvernance : dirigée par Google, cette approche est conçue pour les processus métier critiques et à enjeux élevés où les erreurs pourraient avoir des conséquences importantes.

“Bien que la question de l’exploitation des agents par rapport à l’exécution soit souvent perçue comme une question de construction ou d’achat, il s’agit avant tout d’une question de gestion des risques”, note Rafael Sarim Oezdemir d’EZContacts.

Conclusion

Le paysage de l’IA s’éloigne des « chaînes d’invites » fragmentées pour se tourner vers des systèmes sophistiqués et autonomes. Pour les entreprises, la décision stratégique ne porte plus seulement sur le modèle le plus intelligent, mais aussi sur la question de savoir si elles ont besoin d’un système conçu pour une expérimentation rapide ou d’un système conçu pour un contrôle rigoureux.