Google DeepMind vient de franchir une nouvelle étape dans la robotique grâce à une mise à jour de ses modèles d’intelligence artificielle. En effet, DeepMind a annoncé une avancée majeure dans la robotique avec le lancement de ses modèles Gemini Robotics 1.5 et Gemini Robotics-ER 1.5, une mise à jour des systèmes introduits en mars dernier.
Selon Carolina Parada, responsable de la division robotique, les nouveaux modèles permettent désormais aux robots de planifier plusieurs étapes à l’avance et même de s’appuyer sur Internet pour trouver des solutions. Jusqu’à présent, ces systèmes excellaient surtout dans l’exécution d’instructions simples et isolées, comme plier une feuille ou ouvrir une fermeture éclair.
Désormais, ils peuvent accomplir des tâches beaucoup plus complexes, comme trier du linge par couleurs, préparer une valise en fonction de la météo à Londres ou encore séparer les déchets selon les consignes locales trouvées via une recherche en ligne.
Des robots capables de planifier, apprendre et résoudre des problèmes complexes
Ces modèles permettent désormais aux robots de :
- Planifier plusieurs étapes à l’avance, plutôt que d’exécuter une seule instruction.
- Analyser leur environnement et rechercher activement des informations en ligne (via Google Search).
- Traduire ces recherches en instructions exploitables pour agir dans le monde réel.
Exemples de tâches complexes désormais possibles :
- Trier le linge par couleur (sombres/clairs)
- Préparer une valise selon la météo d’une ville (ex. : Londres)
- Trier les déchets (recyclage, compost, ordure) selon les règles locales trouvées en ligne

Un système collaboratif entre modèles Gemini Robotics
Ces progrès reposent sur deux modèles complémentaires : Gemini Robotics 1.5 et Gemini Robotics-ER 1.5. Le premier combine vision et compréhension du langage pour exécuter des actions concrètes, tandis que le second aide les robots à interpréter leur environnement et à consulter des outils numériques comme Google Search pour traduire les résultats en instructions exploitables.
Ensemble, ils permettent aux machines de passer d’une simple obéissance à une véritable capacité de raisonnement appliquée au monde physique.
Apprentissage partagé entre robots
Autre avancée importante : la capacité pour les robots de « s’enseigner » mutuellement. Google DeepMind a montré que des compétences acquises sur un robot comme l’ALOHA2 pouvaient être directement transférées à d’autres machines très différentes, qu’il s’agisse du bras robotisé Franka ou même du robot humanoïde Apollo d’Apptronik.
Cela ouvre la voie à un modèle unique capable de contrôler des configurations variées et d’accélérer l’apprentissage collectif des robots.
« On peut désormais contrôler des robots très différents avec un seul modèle et transférer des compétences entre eux », a déclaré Kanishka Rao, ingénieur logiciel chez Google DeepMind.
Disponibilité
Gemini Robotics-ER 1.5 est accessible dès aujourd’hui via l’API Gemini dans Google AI Studio (pour développeurs). Gemini Robotics 1.5 reste pour l’instant réservé à certains partenaires sélectionnés.
Avec ces mises à jour, Google DeepMind renforce son positionnement dans la course à l’IA incarnée (embodied AI), où des modèles cognitifs sont intégrés à des robots capables d’agir dans le monde physique de manière autonome, collaborative, et adaptative.



