機器之心報道
自變量機器人
當 AI 放下海德格爾的錘子時,意味著機器人已經能夠熟練使用工具,工具會“隱退”成為本體的延伸,而不再是需要刻意思考的對象。
當一位熟練的木匠抓起錘子時,錘子消失了 —— 不是物理上的消失,而是無需思考便可自如使用。然而,當前最先進的機器人仍然無法“放下”這把“錘子”,它們被困在循環中 —— 識別錘子、規劃如何使用錘子,每一次交互都需要重新“拿起”工具作為認知對象,這種割裂式的處理方式讓 AI 永遠無法達到人類那種直覺的工具使用境界。
具身智能的突破,不會來自對現有基于視覺 - 語言基礎模型的修補,而將源于一場架構革命。
自變量機器人主張,必須放棄以“多模態模塊融合”為核心的拼湊式范式,轉向一個端到端的統一架構。該架構旨在徹底消解視覺、語言和行動之間的人為邊界,將它們還原為單一信息流進行處理。
當前范式的根本局限
現有主流方法將不同模態視為獨立模塊,如預訓練的 ViT 處理視覺信息,LLM 處理語言理解,然后通過融合層進行連接。這種“委員會”式的設計存在著本質缺陷。
首先是表征瓶頸問題。信息在不同模態的專屬編碼器之間傳遞時,會產生不可避免的壓縮損失,就像將一幅油畫描述給盲人,再讓盲人向聾人傳達畫面內容一樣,每次轉換都會丟失關鍵的細節和關聯。這種損失阻礙了模型對物理世界進行深層次的跨模態理解。
最關鍵的是無法涌現的問題。結構上的割裂使得模型難以學習到物理世界中跨越模態的、直覺式的因果規律。就像一個人無法僅通過閱讀教科書就學會騎自行車一樣,真正的物理智能需要的是整體性的、具身的理解,而不是模塊化的知識拼接。
統一架構:從分治到整合
自變量機器人提出的統一模態架構源于一個核心洞察:真正的具身智能不應該是多個專門模塊的協作,而應該像人類認知一樣,在統一的計算框架內同時處理感知、推理和行動。
架構的核心是統一表示學習。自變量機器人將所有模態信息 —— 視覺、語言、觸覺、動作 —— 轉換為共享的高維 token 序列,消除模態間的人為邊界。
關鍵突破在于采用多任務多模態生成作為監督機制:系統必須學會從任一模態生成其他模態的內容,這迫使模型建立起深層的跨模態對應關系。
具體而言,將所有輸入模態,包括多視角圖像、文本指令與機器人實時狀態,通過各自的編碼器轉化為統一的 token 序列,該序列被送入一個 Transformer 核心。其中,預訓練多模態理解模型負責整合信息以完成空間感知理解與任務推理規劃,而生成專家 (Gen. Expert) 則預測未來的圖像與視頻,以及直接生成可執行的機器人動作。兩者通過一個跨模態注意力 (Cross-Modal Attention) 層深度耦合,使得感知、推理和行為的信息流在每一個計算層都能無損地雙向交互與共同演進,從而實現了端到端的統一學習。
這種架構實現了具身多模態推理的涌現。當面對新任務時,系統能夠像人類一樣進行整體性認知處理 —— 視覺理解、語義推理、物理預測和動作規劃在統一空間內并行發生、相互影響,而非串行處理。
通過這種端到端的統一學習,系統最終能夠像人類一樣思考和工作:不再依賴模塊化的信息傳遞,而是在深層表示空間中直接進行跨模態的因果推理和行動決策。
涌現能力:具身多模態推理
這種統一架構旨在解鎖當前模塊化系統無法實現的全方位具身多模態推理能力。
第一個是符號-空間推理能力。
當人類隨意畫出幾何形狀時,機器人首先通過理解復雜幾何圖案,然后在統一的表示空間中進行多層次推理:將抽象的二維圖形解構為具體的字母組合,理解這些字母的空間排列邏輯,并推斷出它們組合成的完整單詞。同時,機器人能夠將這種抽象的符號理解直接轉化為三維空間中的物理操作,用積木塊精確地重現字母的空間排布。
整個過程體現了視覺感知、因果推理和空間操作的深度融合。
視頻演示 1:機器人根據手繪圖形拼出對應單詞
第二個是物理空間推理能力。
當向機器人展示積木的操作步驟時,機器人能夠在其統一的潛在空間中直接進行視覺的空間邏輯推理和因果關系推演。這個過程中,機器人理解每個積木的放置如何影響整體結構的穩定性,推斷操作順序背后的工程邏輯,并預測不同操作路徑可能導致的結果。同時,機器人能夠將這種物理推理過程外化為語言思考鏈,清晰地表達其對空間關系、重力約束和構建策略的理解。
最終,機器人能夠基于這種深層的物理理解,獨立完成復雜的三維結構搭建,展現了物理直覺與推理能力的有機結合。
視頻演示 2:觀察積木操作步驟并搭建對應空間形狀
第三個突破是具備推理鏈的自主探索能力。
面對復雜的環境,系統能夠整合視覺觀察、空間記憶和常識知識,構建出連貫的推理鏈條。整個過程體現了感知、記憶、推理和行動的無縫整合,以及基于常識知識的靈活決策能力。
這種推理過程是端到端學習的自然涌現。
視頻演示 3:帶有推理過程的物品搜索
以上三個視頻, 機器人需要在操作中實時輸出推理過程,這要求模型在統一架構中實現物理操作、視覺和語言推理的精確同步。
最后一個展示了機器人從視頻中學習能力和協作推理能力。
當觀察人類的操作視頻時,機器人從視頻中推斷行為背后的深層意圖和目標狀態。這種能力超越了簡單的動作模仿,體現了視頻學習、對人類意圖的理解、對協作目標的推斷,以及自主的協作決策能力,展現了真正的自主學習和人機協同能力。
視頻演示 4:從視頻中推斷動作意圖并自主執行
結語
這些演示背后體現的是一個根本性的范式轉換。
傳統的多模態系統將世界分解為獨立的表征模塊,但物理世界的交互是連續的、實時的、多模態耦合的 —— 當機器人抓取一個易碎物品時,視覺判斷、力度控制和安全預測必須同時發生,任何模塊間的延遲或信息損失都可能導致失敗。自變量機器人的統一架構正是為滿足這種具身交互的要求生的。
這種轉變的意義在于,它讓機器人能夠像海德格爾描述的熟練工匠一樣,將感知、理解和行動無縫融合。
機器人不再需要經歷 “視覺識別→語言規劃→動作執行” 的冗長串行處理,而是在統一的表征空間中被直接理解為實現特定意圖的媒介 —— 機器人能夠同時 “看到” 物理屬性、“理解” 其在任務中的作用、“感知” 操作的空間約束,并 “規劃” 相應的動作序列。
正是這種多模態信息的并行融合處理,使得具身多模態推理能力得以自然涌現,讓機器人最終能夠像人類一樣流暢地與物理世界交互。
自變量機器人主張,具身智能的未來路徑是從設計“割裂式表征”的系統,轉向構建能夠進行真正具身多模態推理的統一系統。這并非一次增量改進,而是讓 AI 具備跨模態因果推理、空間邏輯推演和實現通用操作的具身智能所必需的架構進化。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.