機器之心原創(chuàng)
作者:聞菲
當整個人工智能行業(yè)都在為「如何給程序員打造更快的馬」而瘋狂投入時,一支特立獨行的團隊選擇「直接去造汽車」。
「大模型的發(fā)展,更像一場籃球比賽才剛剛打完第一節(jié)。所有人都在用第一節(jié)的比分去判斷整場比賽的勝負,但我們認為,還有第二、三、四節(jié)要打。」蔻町智能(AIGCode)創(chuàng)始人兼 CEO 宿文用這樣一個比喻,為當前略顯擁擠的 AI 編程賽道,提供了一個不同的觀察視角。
自 2022 年底 ChatGPT 引爆全球以來,AI 編程被普遍認為是大語言模型最快、最確定能實現(xiàn)嚴肅商業(yè)化(PMF)的一個賽道。從 GitHub Copilot 的成功,到科技大廠和創(chuàng)業(yè)公司紛紛推出自己的編程助手,行業(yè)似乎已經(jīng)形成一種共識:AI 是程序員的「副駕駛」,其核心價值在于提升代碼編寫效率。
然而,宿文和他的蔻町智能,正試圖證明這是對終局的誤判。在與機器之心的最近一次訪談中,宿文拆解了他對 AI 編程的三大「非共識」判斷。
非共識一:基座模型仍處「嬰幼兒期」
網(wǎng)絡(luò)結(jié)構(gòu)創(chuàng)新是破局關(guān)鍵
在許多人眼中,大模型的基座之戰(zhàn)似乎已塵埃落定。后來者尤其是創(chuàng)業(yè)公司,只能在應(yīng)用層尋找機會。宿文對此的看法截然不同:「我們認為大模型技術(shù),或者說基座模型的發(fā)展,還處于嬰幼兒時期。」
他指出,現(xiàn)有以 Transformer 為基礎(chǔ)的模型架構(gòu),在學(xué)習(xí)機制和知識壓縮效率上存在根本性問題。「盡管 MoE 通過專家分工解決了部分計算效率問題,但其專家之間是 “扁平” 且缺乏協(xié)作的,整體上仍是一個依靠簡單路由機制的 “黑盒”。」
蔻町智能從成立第一天起,就選擇自研基座模型。他們的破局點,正是在于對模型網(wǎng)絡(luò)結(jié)構(gòu)的持續(xù)迭代和創(chuàng)新。「我們在 MoE 的基礎(chǔ)上,繼續(xù)向后迭代,最終采用了在推薦搜索領(lǐng)域已經(jīng)非常成熟的 PLE(Progressive Layered Extraction)架構(gòu)。」
他解釋道,從 MoE 到 MMoE,解決的是專家的解耦問題;再到 PLE,則進一步解決了專家解耦后可能產(chǎn)生的沖突和信息損耗問題,實現(xiàn)了對任務(wù)共性與個性的精細化提取。
多任務(wù)學(xué)習(xí)(Multi-task Learning)網(wǎng)絡(luò)結(jié)構(gòu)的演進,從簡單的底層共享(Shared-Bottom),發(fā)展到通過門控專家網(wǎng)絡(luò)(MMoE、CGC)與漸進式分層提取(PLE),以實現(xiàn)更精細地分離與融合任務(wù)的共性與個性信息。圖片來源:Gabriel Moreira@ Medium
宿文表示,網(wǎng)絡(luò)結(jié)構(gòu)創(chuàng)新使他們的模型在知識壓縮和長邏輯鏈條的理解上,具備了與主流模型不同的潛力。
蔻町智能研發(fā)的新模型 AIGCoder 架構(gòu)圖,通過解耦的專家模塊(De-coupled Experts)改良傳統(tǒng)模型,利用多頭專家感知注意力(MHEA)負責動態(tài)激活專家,定制化門控(CGC)負責精細整合信息,實現(xiàn)了在不增加計算開銷的前提下,通過架構(gòu)創(chuàng)新應(yīng)對大模型擴展時遇到的瓶頸。
實驗數(shù)據(jù)顯示,無論是單個關(guān)鍵模塊(左)還是整合后的完整架構(gòu)(右),AIGCoder(橙色曲線)的訓(xùn)練效率均比基線模型(藍色曲線)提升超過 1.3 倍。
非共識二:「避開大廠賽道」是個偽命題
在 AI 領(lǐng)域,創(chuàng)業(yè)者常常聽到一句勸誡——不要做大廠發(fā)展道路上的業(yè)務(wù),否則會被輕易碾壓。
宿文卻認為這是個偽命題。「如果真的是一件大事,為什么大廠會不做?更精準的說法應(yīng)該是,“避免去摘低垂的果實”。」
「真正的護城河,不在于選擇一個大廠看不上的 “縫隙市場”,而是在同一個領(lǐng)域里,解決比大廠更復(fù)雜、更深入的問題。」
「現(xiàn)在的許多 Coding 產(chǎn)品用工程化的方式集成各種 API,生成一個前端尚可的 Demo,這就是 “低垂的果實”。蔻町智能的策略,是通過底層技術(shù)創(chuàng)新,實現(xiàn)真正的 “All-in-one”。」
這種一體化的思路,也體現(xiàn)在宿文對 Agent 發(fā)展的看法上。他表示當前行業(yè)習(xí)慣性地將技術(shù)棧劃分為 Infra、基座、OS、Agent 等層次,「這很像是對上一代 PC 互聯(lián)網(wǎng)和移動互聯(lián)網(wǎng)的技術(shù)架構(gòu)的簡單映射,這樣 “刻舟求劍” 式的對新技術(shù)做定義意義不大。」
他強調(diào),在新范式下,各個技術(shù)環(huán)節(jié)是深度耦合的。「奔著解決問題的角度,我們就把它一體化地解決。在最終效果沒有出來之前,過早分工反而不利于提效。」
蔻町智能把 AI for Coding 劃分為 L1 到 L5 五個階段:
- L1:類似低代碼平臺,目前不是主流;
- L2:Copilot 產(chǎn)品,輔助程序員,根據(jù)提示生成代碼,代表產(chǎn)品有 GitHub Copilot、Cursor;
- L3:Autopilot 產(chǎn)品,能端到端地完成編程任務(wù),不需要程序員介入;
- L4:多端自動協(xié)作,讓多個協(xié)作用戶能直接把軟件創(chuàng)意變成某個完整的產(chǎn)品;
- L5:能夠自動迭代,升級為成熟的軟件產(chǎn)品。
宿文表示:「目前大部分 AI Coding 產(chǎn)品集中在 L2 階段,而 AutoCoder 從一開始就定位在 L3。」
從 L2 到 L3,并非簡單的量變。「將編程助手做到極致,并不會自然而然地通向端到端軟件生成。」兩者需要解決的技術(shù)問題、優(yōu)化的方向,基本上沒有大的重合:前者(Copilot)優(yōu)化的是「寫代碼效率」,核心是上下文理解與精準補全;后者(Autopilot)解決「不寫代碼」的問題,核心是對復(fù)雜業(yè)務(wù)邏輯的理解、拆解與長邏輯鏈條的生成。
此外,L2 需要與 IDE(集成開發(fā)環(huán)節(jié))深度融合,對大廠倆說有天然優(yōu)勢,對創(chuàng)業(yè)公司而言,則可能是一條事倍功半的險路。
非共識三:個性化應(yīng)用市場即將爆發(fā),
新增需求遠超存量替代
堅持 L3 不僅是技術(shù)上的選擇,也是宿文和他的團隊對市場未來的判斷。盡管行業(yè)普遍認同 AI 編程的終極目標在于賦能每一個人,但在實現(xiàn)路徑上,由于 AI 技術(shù)瓶頸與普通用戶相關(guān)知識的缺失,主流看法認為,當下最現(xiàn)實的路徑,是先輔助程序員,解決存量市場的效率問題。
宿文則認為這恰恰是一種「戰(zhàn)略繞行」,因為 L2 無法自然演進到 L3,所以沿著 L2 走,不僅無法抵達終點,更可能錯失真正的藍海——那個被現(xiàn)有開發(fā)模式壓抑的、由海量個性化需求構(gòu)成的增量市場。
「新增的需求遠遠大于存量的替代。程序員不會消失,但一個全新的、數(shù)倍于現(xiàn)有規(guī)模的市場會爆發(fā)。」
「很像是有了滴滴才有了網(wǎng)約車市場,有了美團才有了外賣市場,」他類比說:「以前人們打車、點外賣的大量潛在需求被高昂的成本和復(fù)雜的流程所壓抑,一旦有了低成本、高效率的供給方式,市場便會迎來爆發(fā)式增長。」
在軟件開發(fā)領(lǐng)域,對于大量的中小企業(yè)、創(chuàng)業(yè)者,甚至大企業(yè)的業(yè)務(wù)部門而言,都存在被壓抑的需求。宿文舉例,一個業(yè)務(wù)部門想為內(nèi)部開發(fā)一套培訓(xùn)系統(tǒng),傳統(tǒng)模式下,從漫長的需求溝通、高昂的開發(fā)投入,到最終交付物偏離預(yù)期的風險,整個過程動輒數(shù)月,且試錯成本極高。
蔻町智能希望將這個流程重塑為:「只要上午能明確定義需求,下午就能看到一個可直接上線部署的產(chǎn)品。」
蔻町智能最新發(fā)布的端到端軟件生成產(chǎn)品 AutoCoder,定位「全球首款前后端一體化的應(yīng)用與軟件完整生成平臺」,能夠同時生成高度可用的前端、數(shù)據(jù)庫和后端。例如,用戶輸入「幫我生成一個科技公司官網(wǎng)」,平臺不僅生成用戶可見的前臺頁面,也同步生成供企業(yè)員工管理網(wǎng)站內(nèi)容和用戶數(shù)據(jù)的后臺系統(tǒng)。
AutoCoder 的受眾不僅包括產(chǎn)品經(jīng)理、設(shè)計師等專業(yè)人士(Prosumer),更涵蓋了大量非技術(shù)背景的個人從業(yè)者、小型企業(yè)主(如咖啡店、健身房)、初創(chuàng)團隊的非技術(shù)創(chuàng)始人等。這些人有明確的數(shù)字化需求,但被傳統(tǒng)開發(fā)的高門檻擋在門外。
宿文引用了一個數(shù)據(jù):海外一家類似理念的公司,其產(chǎn)品的月度訪問量,在短時間內(nèi)已經(jīng)達到了發(fā)展近 20 年的 GitHub 的十分之一,并且 GitHub 的數(shù)據(jù)本身并未下滑。這意味著一個新的、增量用戶的市場正在被激發(fā)。
當然,L3 這條路最直接的質(zhì)疑就是——端到端生成的軟件出了 Bug 怎么辦?宿文的回應(yīng)是:
「與其花費數(shù)小時去尋找一個 Bug,為什么不花幾分鐘重新生成一個正確的版本呢?」隨著軟件生成的邊際成本趨近于零,迭代和試錯的自由度將被前所未有地釋放。
結(jié)語
自研基座模型,選擇更難的端到端路徑,瞄準被壓抑的增量需求——這三個非共識但邏輯自洽的判斷,構(gòu)成了蔻町智能的核心戰(zhàn)略和發(fā)展路徑。
當然,選擇一條少有人走的路,必然伴隨著質(zhì)疑和不確定性。正如汽車在誕生之初,遠沒有馬車跑得快,甚至開幾公里就散架。蔻町智能的「汽車」能否在性能、穩(wěn)定性和可靠性上,快速迭代到可以與成熟的「馬車體系」相抗衡甚至超越的階段,仍需時間和市場的檢驗。
但毫無疑問,這場關(guān)于 AI 編程的籃球賽才剛剛開始。一個挑戰(zhàn)者已經(jīng)選擇用自己的方式,去打一場完全不同的比賽。從用戶的角度,我們也樂于期待一個軟件創(chuàng)造權(quán)力被徹底平權(quán)的未來。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.