Message de Gate News, 16 avril — Google et Boston Dynamics ont annoncé l’intégration de modèles de raisonnement embarqué de Gemini Robotics dans le robot quadrupède Spot, permettant au système d’interpréter des instructions en langage naturel, de reconnaître des objets et d’exécuter des tâches complexes de manière autonome.
La collaboration, s’appuyant sur des travaux expérimentaux issus d’un hackathon interne en 2025, permet à Spot de traiter des entrées visuelles et de traduire des commandes de haut niveau en actions physiques coordonnées. Contrairement à la programmation robotique traditionnelle, qui repose sur une logique rigide étape par étape, le système utilise des invites conversationnelles et une couche logicielle intermédiaire reliant les modèles Gemini à l’API de Spot. L’IA peut sélectionner parmi des capacités prédéfinies, notamment la navigation, la détection d’objets, la capture d’images, la préhension et le placement, avec un retour en temps réel permettant un comportement adaptatif sans intervention manuelle.
Lors de démonstrations, le système a réussi à interpréter des instructions générales pour organiser des éléments, en analysant des données visuelles et en guidant le robot à travers des séquences d’actions. L’approche préserve la sécurité opérationnelle en limitant les capacités de l’IA à des frontières prédéfinies dans l’API du robot, conciliant adaptabilité et performance contrôlée. Ce partenariat suggère des gains d’efficacité potentiels pour les développeurs en réduisant le codage manuel et en permettant aux ingénieurs de se concentrer sur la définition des objectifs plutôt que sur la programmation de chaque séquence d’action.
Related News