衡宇 昕祎 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
剛剛,就在WAIC現(xiàn)場的一個展臺,我親眼看到一只機器狗,在完全離線斷網(wǎng)的情況下,學會了一個新動作。
是一位中年男性觀眾現(xiàn)場教的。讓它先轉個圈,再立起來做了個經(jīng)典的小狗拜拜。
教完過后沒兩分鐘,狗子自己就原模原樣復現(xiàn)出來了——
沒有預定程序,沒人遙控操縱,狗子全程離線。
一扭頭,這展臺還擺著幾只靈巧手,一會兒在愉快地玩黃金礦工,一會兒又玩推箱子推得正起勁。
聽展臺工作人員說,玩兒得這么溜的靈巧手,也是純離線,全靠它本地部署模型的視覺能力,看得懂畫面,也玩得轉策略。
其實靈巧手、機器狗、機器人等是本屆WAIC不少展位吸引目光的招牌產品。
之所以想和大家分享剛剛的所見所聞,一方面是因為在真·離線的狀態(tài)下,這倆端側設備表現(xiàn)得實在是不錯;另一方面,是因為部署在它們身上的模型,是非Transformer架構的大模型。
展臺負責介紹的小姐妹告訴我們,背后是設備原生智能:能離線跑、會多模態(tài),還能邊用邊學。
這套體系的幕后推手,是一家成立剛滿兩年的公司——RockAI。
早在ChatGPT名動全球之前的2022年初,這家公司就開始全心押注非Transformer架構大模型,從最底層重構AI模型的運行邏輯。
今年WAIC期間,RockAI創(chuàng)始人劉凡平公開表示:
目前AI的發(fā)展需要推翻兩座大山,一個是反向傳播,一個是Transformer。
當大模型具備“原生記憶”能力
在RockAI展臺上自學新動作的機器狗、會玩游戲的靈巧手,都運行著RockAI最新推出的Yan 2.0 Preview大模型。
這個版本,相比初代Yan 1.0的語言能力、Yan 1.3的多模態(tài)理解能力,最大的突破在于它開始具備“記憶”了——引入了原生記憶模塊。
這里的“記憶”,不是對某個長度上下文的窗口限制,而是Yan 2.0 Preview具備了邊用邊學、可持續(xù)進化的能力。
現(xiàn)在大家用大模型,都會遇到這樣一種情況:提的問題超出了Chatbot的訓練數(shù)據(jù)覆蓋范圍,得到一句“很抱歉,我的知識截至于2024年x月,無法提供相關信息”,要么就是得到一頓瞎編的結果,令人頭禿。
這是傳統(tǒng)大模型“先訓練→再部署→使用過程不能更新”導致的。
所以,現(xiàn)在聯(lián)網(wǎng)搜索功能幾乎成了Chatbot們的標配。
但相比于原生記憶,聯(lián)網(wǎng)搜索、外掛記憶庫、拓展長上下文等解決方案其實沒有解決根本問題。
在這個問題上,Yan 2.0 Preview引入了一種訓推同步的新機制。
訓推同步意味著模型不再是一個凍結的產品,而是一個持續(xù)進化的智能體。每一次與環(huán)境的交互,每一個新的任務場景,都能成為模型自主學習、進化的養(yǎng)分。
要展開說這種持續(xù)學習能力的實現(xiàn),就不得不提到RockAI對Yan 2.0 Preview的記憶模塊設計。
其前向過程可分為記憶更新與記憶檢索兩個階段。
首先來看記憶更新階段。
這一階段,模型會判斷哪些舊知識可以被遺忘,然后再從當前任務中提取出有價值的信息,寫入記憶模塊。
這個過程不靠外掛、不靠緩存,而是由一個專門的神經(jīng)網(wǎng)絡來模擬記憶行為來實現(xiàn)動態(tài)擦除與增量寫入,以此實現(xiàn)在保留重要歷史信息的同時,靈活整合新知識。
其次是記憶檢索階段。
Yan 2.0 Preview設計了記憶稀疏機制,模型會從多個記憶槽中選出Top-K激活記憶,與長期共享記憶融合,生成新的輸出。
這使得模型不只是有記性,更能“帶著記性去推理”。
這些機制組合在一起,讓Yan 2.0 Preview完成了對記憶網(wǎng)絡有效性的初步驗證,模型不再是靜態(tài)的大腦,而開始變成一個能生長的智能體。
用RockAI的話來說,這是邁向基于訓推同步的自主學習的一大步。
雖然完全實現(xiàn)基于訓推同步的自主學習在現(xiàn)在看來還是不可能之事,但這背后其實有一個非常現(xiàn)實主義的出發(fā)點。
早在2022年,RockAI創(chuàng)業(yè)之初就徹底放棄了Transformer架構,走一條完全不同的AI底層路徑。
原因很簡單——
RockAI專注為端側服務,而Transformer架構模型雖然在語言處理任務上表現(xiàn)出色,但它們消耗大量計算資源和內存,推理也異常吃算力。
尤其是對于長序列輸入,Transformer的自注意力機制存在二次復雜度的計算和內存需求,在諸如端側部署等場景中是天然的bug。
對于手機、機器人、IoT設備這些典型端側環(huán)境,資源敏感是一種常態(tài),不是一種例外。
彼時的RockAI就做出判斷:
AI要成為真正的基礎設施,就必須與具體設備深度融合,只有當AI能夠在每一個終端設備上高效運行之時,它才能真正滲透到人類生活的每一個角落。
在這樣的思路下,Yan架構誕生了,并逐漸迭代出1.0、1.3版本,直到今天來到Yan 2.0 Preview版本。
需要強調的是,Yan 2.0 Preview不是一個完整的產品版本,它的意義更多是RockAI進行的一次重要技術預演。
這次他們想驗證的,不是模型能不能答題、會不會生成圖文,而是一個更本質的問題:
AI模型,能不能像人一樣,邊用邊學、越用越聰明?
這個問題的重要性遠超技術本身。
如果答案是肯定的,我們對AI的理解就該改一改,它不再是工具,而是能主動成長的智能伙伴。
基于訓推同步的自主學習機制,將有效信息隱式地存儲到多層神經(jīng)網(wǎng)絡的權重中,這比顯性的上下文工程更加優(yōu)雅,也更接近人類大腦的工作原理。
所以,展臺上玩游戲的靈巧手和自主學習的機器狗,不能當個逛展的樂子看,更深層次的,這能被視作是一種可能性的預告,AI或許能進入一個全新的進化階段。
“離線智能”讓模型直接在設備上出生和成長
最終通向AGI的路徑還在探索中,但方向是確定的:算法更簡單、算力依賴更低、數(shù)據(jù)需求更少。
RockAI表示,要讓AI真正進入這樣的進化階段,光靠外部功能拼裝是不夠,必須從底層架構動刀,解決那些阻礙AI落地生長的系統(tǒng)性問題。
“Transformer架構的模型,從一開始就注定不適合在端側設備上跑。”RockAI的CTO楊華如是說。
是不是有那么一絲絲“暴論”的味道?(doge)
但其實這句話絕不是沒有道理的歪理邪說——
ChatGPT一鳴驚人后,Transformer架構的模型席卷行業(yè),越攀越高,在國內外無數(shù)次被證明有效。
但眾所周知,受限于Transformer架構本身的底層計算設計,在不少場景下,它會顯得比較笨拙。
譬如在推理模型風頭正盛的現(xiàn)在,Transformer模型一旦進入推理階段,模型的復雜度就會伴隨輸入序列長度瘋狂增長。每多處理一個token,就要額外計算整段上下文的注意力關系。
換句話說,就算你把大模型壓得再小,只要它還是Transformer架構,上下文長度變長、任務復雜度提升,推理速度就會明顯受限,功耗也直線向上狂飆。
如此一來,在手機、機器人、IoT終端這類算力有限的設備,Transformer架構模型就不占優(yōu)勢了。
針對這個窘境,目前業(yè)內的主要做法,要不是端云協(xié)同,要不就是給云端模型“瘦身”,盡可能壓縮壓縮再壓縮,再擠進端側設備里。
總而言之,現(xiàn)行主流方法的本質,仍然是在用云端的思路,來服務端側的現(xiàn)實。
但RockAI不一樣。
這家公司的辦法不是讓模型適配設備,而是讓模型直接在設備上出生和成長。
前面提到的Yan架構,就專為端側而生,RockAI表示, 它的目標是讓模型變成設備的一部分——RockAI稱之為“離線智能”。
所謂離線智能,不是簡單的“斷網(wǎng)運行”,而是模型在本地就能完成理解、推理、甚至學習的全流程閉環(huán)系統(tǒng)。
其核心特征有三:
- 全程本地運行:推理過程不依賴云端算力,模型部署在設備上,離線狀態(tài)可用。
- 多模態(tài)理解:能處理語音、圖像、視頻等復雜輸入,具備較強的本地感知與交互能力。目前,Yan 2.0 Preview能在樹莓派上以5 tokens/s的速度多模態(tài)問答。
- 邊用邊學的可成長性:具備訓推同步能力,用戶交互中的新信息可被寫入本地模型記憶,實現(xiàn)逐步成長。
這么一剖析,就能發(fā)現(xiàn)離線智能的與眾不同之處——
傳統(tǒng)AI是聯(lián)網(wǎng)找大腦,端云協(xié)同是遇到不會的去問云端,離線智能是只靠自己本身具備的腦子邊理解邊學習邊應對。
RockAI表示,端側大模型不應是縮水版的云端大模型。
端側大模型應該是一種創(chuàng)新架構的模型,能夠在終端設備上進行本地私有化部署。
其核心能力在于基于多模態(tài)感知實現(xiàn)自主學習與記憶,以提供個性化服務并保障數(shù)據(jù)隱私與運行安全。
說到底,RockAI把它視為未來各類終端設備真正的大腦。
“記憶”對未來終端設備來說十分重要,是它們真正理解你、陪伴你的關鍵所在。
具備記憶能力的大模型,能持續(xù)學習用戶的習慣、環(huán)境和情緒,在保護隱私的前提下,提供更精準的個性化服務。
人類一生都在邊記憶邊成長。未來設備也將借助記憶形成自己的經(jīng)驗,從而一步步變得有溫度、有判斷力,實現(xiàn)智能陪伴。
從這個角度來看,RockAI的愿景就不止步于拓展模型能力邊界了,這家公司用Yan架構大模型押注的還有讓“記憶”成為未來設備原生端側模型的基本素養(yǎng)。
國內非Transformer架構模型的落地之王
更重要的是,Yan架構并不是一場紙上談兵的重構實驗,它已經(jīng)在真實設備中長出來了,也開始動起來了。
官方消息顯示,不用裁剪、無須量化,Yan架構的系列大模型已經(jīng)跑通了樹莓派、驍龍6系列移動芯片、AMD和Intel的PC處理器,甚至是機器人主控芯片。
而且不僅是技術上跑起來,商業(yè)世界里也開始真正落地用起來了。
RockAI表示,與某出海品牌廠商合作的AI PC將在今年下半年正式量產上市,銷往海外。與此同時,該公司與其他品牌合作開發(fā)的終端設備,也正陸續(xù)進入部署節(jié)奏。
在全球范圍內,在行業(yè)里能真正做到完全非Transformer架構 + 真端側落地的公司,RockAI是極少數(shù)之一。
兩年多時間,他們用一條最不主流的路徑,走出了眼下完整的落地閉環(huán),成為國內非Transformer架構模型的落地之王。
但他們要走的路,并不止于讓離線智能商業(yè)落地。
我們了解到,RockAI推出的類腦激活機制、原生記憶能力、純離線部署,并不是分散的功能點,而是通往一個更遠方向的三根支柱。
這個方向就是群體智能(Collective Intelligence)。
在RockAI看來,群體智能是邁向AGI的關鍵路徑之一。
人類社會中,個體具備專長,協(xié)作產生力量,故而RockAI希望智能設備也能這樣:模型和模型之間通過神經(jīng)元遷移或任務能力同步實現(xiàn)協(xié)作,構建出一個有組織、有分工、有反饋的模型群落。
換言之,RockAI構想的AI未來,不是一個巨無霸式的超級中心化模型,而是無數(shù)設備小腦互聯(lián)互通,共同進化。
這種看似激進的思路,其實也正在被越來越明顯的技術趨勢所呼應。
隨著效率敏感型場景的需求上升,去年開始,Transformer架構模型正被越來越多國內外主流科技公司關注并采納。
就連Transformer誕生地——谷歌,也在幾天前推出了全新底層架構Mixture-of-Recursions(MoR),內存減半,推理速度還翻倍,被不少網(wǎng)友戲稱為Transformer Killer。
可以看到,業(yè)界開始集體追問一個問題:Transformer架構,是不是走到了一個分岔點?
對于RockAI來說,這個問題的答案是肯定的。混合架構的大量出現(xiàn),就是行業(yè)潛意識里對原有路線“不夠用了”的回應。
Transformer仍在狂飆,但非Transformer們也在快速追趕。不同的是,前者在原軌道上提速,后者在開鑿一條新的鐵路。
這條路挺難的。
它要繞開一整個AI生態(tài)的技術慣性,要補完新架構下的工具鏈、社區(qū)與認知成本。
這條路也很孤獨。
當前全球主流模型、硬件接口、訓練范式,大多都以Transformer架構為中心設計。
但正因如此,非Transformer架構值得被認真對待——在ChatGPT問世以前,GPT也在T5、BERT的光芒下顯得有些黯然。
所以RockAI相信,只要這條路解決了現(xiàn)實問題,它就有存在的意義。
如果我們把視線從“這周誰開源了新版本和“下一個基準測評的排行榜”抬起來,以十年甚至三十年的長遠視角去看今天,或許,真正照亮這個端云混戰(zhàn)、架構爭鳴的AI深夜的,未必是當下最喧嘩的那束光。
也有可能是以后成了共識之后被標記為起點的星星之火。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.