Google 與 Boston Dynamics 將 Gemini AI 模型整合至 Spot 機器人:用於自然語言控制與任務執行

Gate News 訊息,4 月 16 日——Google 和 Boston Dynamics 宣布,已將 Gemini Robotics 具身推理模型整合到 Spot 四足機器人中,使系統能解讀自然語言指示、辨識物件並自主執行複雜任務。

這項合作建立在 2025 年內部黑客松的實驗成果之上,使 Spot 能處理視覺輸入,並將高階指令轉換為協調一致的身體動作。與依賴僵硬逐步邏輯的傳統機器人程式不同,該系統採用對話式提示,並透過一層中介軟體將 Gemini 模型連接至 Spot 的 API。AI 能從預先定義的能力中進行選擇,包括導航、物件偵測、影像擷取、抓取與放置;並借助即時回饋實現自適應行為,無需人工介入。

在示範中,系統成功解讀一般指令以整理物品:它會分析視覺資料,並透過一連串動作序列引導機器人完成任務。這種做法透過在機器人的 API 中將 AI 能力限制於預先定義的範圍,維持作業安全性,在適應性與可控效能之間取得平衡。此合作夥伴關係顯示,透過減少手動編碼,開發者可能獲得潛在的效率提升,並讓工程師能專注於定義目標,而非逐一程式化每個行動序列。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
回覆
0/400
暫無回覆