- 註冊時間
- 2025-2-11
- 最後登錄
- 2026-5-4
- 主題
- 查看
- 積分
- 846
- 閱讀權限
- 100
- 文章
- 238
- 相冊
- 2
- 日誌
- 1
  
狀態︰
離線
|
Google於4月14日發表全新機器人AI模型「Gemini Robotics-ER 1.6」,讓Boston Dynamics(波士頓動力)著名的四足機器狗Spot具備如同人類般的「具身推理」(Embodied reasoning)能力,能在巡視工廠或倉庫時,精準判讀指針式溫度計與壓力計。
波士頓機器狗結合Google新模型,還能預警工廠傷害。
這項技術的核心在於Google DeepMind開發的Gemini Robotics-ER 1.6模型。相較於前代模型ER 1.5僅有23%的儀表判讀準確率,新模型在導入「代理視覺」(Agenticvision)功能後,準確率大幅躍升至98%。即便是未開啟代理視覺的基準模式,其準確率仍高達86%,遠優於Gemini 3.0 Flash的67%。
所謂的「代理視覺」結合了視覺推理與程式執行能力,能建立一個「視覺草稿區」(Visual scratchpad)來分析並處理影像,這讓機器人能應對工業現場複雜的視覺環境,例如解讀多個指針、液位高度、容器邊界,甚至是儀器上的細小刻度與文字。
Gemini Robotics-ER 1.6具備強大的「多視角推理」能力,允許機器人系統同時利用多個攝影機串流來理解環境。在測試案例中,新模型能精準識別並點算凌亂影像中的各種工具(如鎚子、剪刀、畫筆等);反觀舊款模型不僅數量點算錯誤,甚至會虛構出影像中不存在的物品。這顯示新模型在解決AI「幻覺」問題上有顯著進展,雖然與人類水平的環境理解仍有距離,但已更趨近真實世界的應用需求。
Google形容這是迄今為止「最安全」的機器人模型,能嚴格遵守物理安全限制。在處理液體或材料時,機器人能做出更安全的決策,並能識別不同場景下的傷害風險,例如精準察覺「幼兒試圖將異物塞入電源插座」的危險。
波士頓動力目前正計畫在其母公司現代汽車集團(Hyundai MotorGroup)等多個工業設施中測試這項技術。傳統機器人多半只能在固定生產線重複特定動作,而Google與波士頓動力的目標,是讓機器人成為能在不受控、複雜的現實環境中自由運作的「自由工作者」。
雖然機器人在複雜環境中運作仍存在潛在風險,但Gemini Robotics-ER 1.6的出現,無疑讓我們距離機器人能完全融入人類生活、精準理解物理世界的未來,又邁進了一大步。
錄自:TN科技島
|
-
總評分: SOGO幣 + 30
查看全部評分
|