Le futur de l’IA n’est pas un modèle unique et omniscient, mais une armée d’agents spécialisés capables de collaborer. Google l’a bien compris avec le protocole A2A (Agent to Agent). Voici comment mettre en place votre premier réseau d’agents autonomes en quelques minutes avec Python.
Imaginez un monde où votre IA de gestion de stock discute directement avec l’IA de votre fournisseur pour passer commande, sans que vous ayez écrit une seule ligne de code d’intégration complexe.
C’est la promesse de l’A2A, une spécification open source conçue pour standardiser la communication entre agents.
Contrairement aux solutions propriétaires, A2A fournit un langage commun (basé sur JSON) et un système de carte de visite qui permet aux agents de découvrir leurs capacités respectives.
Dans ce tutoriel, nous allons créer un système simple où un Coordinateur interroge un agent Météo et un agent Restaurant pour organiser une sortie.
Prérequis
Avant de commencer, assurez-vous de disposer de l’environnement suivant :
- Python 3.7 (ou supérieur) installé ;
- Pip (gestionnaire de paquets) configuré.
Pour vérifier, ouvrez votre terminal et tapez :
Bash
python --version
Étape 1 : installation des dépendances
Nous avons besoin de deux librairies Python essentielles : Flask (pour créer les serveurs web des agents) et Requests (pour qu’ils s’envoient des messages).
Dans votre terminal, exécutez :
Bash
pip install flask requests
Lancement du SDK Python pour A2A avec une spécification du protocole A2A mise à jour (v0.2), un nouveau SDK Java pour le kit de développement d'agents (ADK), la version stable v1.0.0 de notre ADK Python et le moteur d’agents (Agent Engine) https://t.co/0BVWmq0oqa pic.twitter.com/PeqFSjNkzN
— Google Cloud France (@GoogleCloud_FR) May 21, 2025
Étape 2 : l’architecture du projet
Pour ce tutoriel, nous nous basons sur la structure de fichiers « tutoriel_a2a_simple » (mentionnée dans la source). Le dossier contient quatre scripts principaux :
- agent_restaurant.py : recherche des restaurants selon des critères (ville, type) ;
- agent_meteo.py : fournit les prévisions pour un lieu et une date ;
- agent_coordinateur.py : le cerveau. Il reçoit la demande de l’utilisateur, interroge les deux autres agents via leurs cartes de visite JSON, et synthétise la réponse ;
- client_test.py : l’interface pour envoyer vos requêtes.
Chaque agent fonctionne comme un mini-serveur indépendant. Le secret d’A2A réside dans le fichier .well-known/agent.json que chaque agent expose, décrivant qui il est et ce qu’il sait faire.
Étape 3 : lancement des agents
Il va falloir jouer les chefs d’orchestre en ouvrant 4 terminaux différents (un pour chaque agent + un pour le client).
Dans le Terminal 1 (Le Restaurant) :
Bash
cd chemin/vers/agent_restaurant
L’agent démarre et affiche son adresse locale (ex: localhost:10000).
Dans le Terminal 2 (La Météo) :
Bash
cd chemin/vers/agent_meteo
L’agent démarre sur un autre port (ex: localhost:10001).
Dans le Terminal 3 (Le Coordinateur) :
Bash
cd chemin/vers/agent_coordinateur
L’agent coordinateur démarre (ex: localhost:10002).
💡 Astuce de vérification : vous pouvez vérifier que vos agents sont vivants en tapant http://localhost:10000/.well-known/agent.json dans votre navigateur. Vous devriez voir la fameuse « carte de visite » en code JSON.
Étape 4 : le test final
Maintenant que notre infrastructure est en place, il est temps de la faire travailler.
Dans le Terminal 4 (Le Client) :
Bash
cd chemin/vers/client_test
L’interface vous invite à saisir une requête. Essayons une demande complexe qui nécessite la coopération des deux agents spécialisés :
« Je souhaiterais aller dans un bouchon lyonnais mercredi prochain à midi ».
Ce qu’il se passe en coulisses :
- Le Coordinateur analyse la phrase ;
- Il contacte l’agent Météo pour vérifier le temps à Lyon mercredi ;
- Il contacte l’agent Restaurant pour trouver un bouchon ;
- Il agrège les deux réponses pour vous dire : « Voici une liste de bouchons à Lyon. Il fera beau mercredi, parfait pour une terrasse ».
Bien que le coordinateur puisse parfois hésiter (c’est encore expérimental !), ce protocole A2A pose les bases solides d’un web décentralisé d’agents.
La prochaine étape ? Remplacer ces données simulées par de vraies API (Google Maps, OpenWeather) et connecter un LLM puissant pour une compréhension parfaite des requêtes.
- Partager l'article :

