Pesan Gate News, 16 April — Google dan Boston Dynamics mengumumkan integrasi model penalaran embodied Gemini Robotics ke dalam robot kuadruped Spot, memungkinkan sistem untuk menafsirkan instruksi bahasa alami, mengenali objek, dan mengeksekusi tugas kompleks secara otonom.
Kolaborasi ini, yang dibangun di atas riset eksperimental dari hackathon internal 2025, memungkinkan Spot memproses masukan visual dan menerjemahkan perintah tingkat tinggi menjadi tindakan fisik yang terkoordinasi. Berbeda dari pemrograman robotika tradisional yang bergantung pada logika kaku langkah demi langkah, sistem ini menggunakan prompt percakapan dan lapisan perangkat lunak perantara yang menghubungkan model Gemini ke API Spot. AI dapat memilih dari kapabilitas yang telah ditentukan sebelumnya, termasuk navigasi, deteksi objek, pengambilan gambar, pengambilan dengan tangan (grasping), dan penempatan (placement), dengan umpan balik waktu nyata yang memungkinkan perilaku adaptif tanpa intervensi manual.
Dalam demonstrasi, sistem berhasil menafsirkan instruksi umum untuk mengatur barang, menganalisis data visual dan mengarahkan robot melalui rangkaian tindakan. Pendekatan ini menjaga keselamatan operasional dengan membatasi kapabilitas AI pada batas yang telah ditetapkan sebelumnya di dalam API robot, menyeimbangkan adaptabilitas dengan performa yang terkontrol. Kemitraan ini menunjukkan potensi peningkatan efisiensi bagi pengembang dengan mengurangi kebutuhan pengkodean manual dan memungkinkan para insinyur untuk fokus pada penetapan tujuan, bukan memprogram setiap rangkaian tindakan.
Related News