Gate News 訊息,4 月 16 日——Google 和 Boston Dynamics 宣布,已將 Gemini Robotics 具身推理模型整合到 Spot 四足機器人中,使系統能解讀自然語言指示、辨識物件並自主執行複雜任務。
這項合作建立在 2025 年內部黑客松的實驗成果之上,使 Spot 能處理視覺輸入,並將高階指令轉換為協調一致的身體動作。與依賴僵硬逐步邏輯的傳統機器人程式不同,該系統採用對話式提示,並透過一層中介軟體將 Gemini 模型連接至 Spot 的 API。AI 能從預先定義的能力中進行選擇,包括導航、物件偵測、影像擷取、抓取與放置;並借助即時回饋實現自適應行為,無需人工介入。
在示範中,系統成功解讀一般指令以整理物品:它會分析視覺資料,並透過一連串動作序列引導機器人完成任務。這種做法透過在機器人的 API 中將 AI 能力限制於預先定義的範圍,維持作業安全性,在適應性與可控效能之間取得平衡。此合作夥伴關係顯示,透過減少手動編碼,開發者可能獲得潛在的效率提升,並讓工程師能專注於定義目標,而非逐一程式化每個行動序列。
Related News