新智元報(bào)道
編輯:編輯部
【新智元導(dǎo)讀】大語(yǔ)言模型越來(lái)越「聰明」,但缺失記憶:記不住、改不了、學(xué)得慢。國(guó)內(nèi)頂尖團(tuán)隊(duì)干脆打造出操作系統(tǒng)級(jí)的AI記憶框架MemOS,讓模型「記得住、改得了、學(xué)得快」。相關(guān)成果現(xiàn)已開源!關(guān)鍵還可商用。
2024年7月,記憶張量團(tuán)隊(duì)首次提出了基于分層記憶建模的憶立方(Memory3)框架,證明了僅依賴參數(shù)記憶和檢索增強(qiáng)生成(RAG)的模型難以在效率、可追溯性與長(zhǎng)期適應(yīng)性之間取得有效平衡。
這一研究視角深入揭示了當(dāng)前人工智能在長(zhǎng)期知識(shí)管理與個(gè)性化演進(jìn)方面存在的本質(zhì)缺陷。
雖然,以大語(yǔ)言模型(LLM)為代表的AI助手已滲透到生活各個(gè)領(lǐng)域,它們足夠聰明,也足夠博學(xué)。
但我們清楚地知道,它們距離真正成為「老師」、「同事」、「專家」或「教練」將面臨難以逾越的鴻溝——「記憶」缺失!
我們期待LLM像老師一樣,不僅能傳授知識(shí),更能因材施教,精準(zhǔn)記憶每位用戶的優(yōu)劣與難點(diǎn),提供個(gè)性化指導(dǎo);或者像同事一樣,不僅能協(xié)作解決當(dāng)下的問(wèn)題,更能通過(guò)持續(xù)的經(jīng)驗(yàn)與上下文積累,在未來(lái)的協(xié)作中更加默契與高效…
這些對(duì)記憶能力的深層需求,恰恰是現(xiàn)階段AI的薄弱環(huán)節(jié)。
當(dāng)前的大模型主要依賴兩類傳統(tǒng)記憶機(jī)制:
一種是固化在權(quán)重中的參數(shù)記憶,代表模型的長(zhǎng)期知識(shí)積累,但更新困難、無(wú)法追溯;
另一種是只在單輪對(duì)話中有效的激活記憶(如KV緩存),雖然響應(yīng)迅速,卻無(wú)法形成跨會(huì)話的長(zhǎng)期認(rèn)知。
由此帶來(lái)的結(jié)果是,模型能夠「看得懂、答得出」,卻「記不住、改不了、學(xué)不快」:
在多輪對(duì)話中,模型常常遺忘早期指令;
在RAG應(yīng)用中,新舊知識(shí)沖突讓模型陷入混亂;
面對(duì)不同用戶時(shí),模型無(wú)法沉淀個(gè)性化偏好,每次交互都宛如首次見面;
針對(duì)這些核心問(wèn)題,記憶張量(上海)科技有限公司聯(lián)合上海交通大學(xué)、中國(guó)人民大學(xué)、同濟(jì)大學(xué)、浙江大學(xué)、中國(guó)電信等多家頂尖團(tuán)隊(duì),共同研發(fā)并開源了MemOS——
一套專為大模型設(shè)計(jì)的類操作系統(tǒng)級(jí)記憶管理框架,致力于全面提升大模型的長(zhǎng)期記憶能力和個(gè)性化交互體驗(yàn)。
圖1:MemOS整體功能架構(gòu)示意
該項(xiàng)目在Memory3項(xiàng)目(記憶分層大模型)的研究基礎(chǔ)上,系統(tǒng)性地將「記憶」視為L(zhǎng)LM的核心資源,通過(guò)統(tǒng)一管理與調(diào)度,旨在填補(bǔ)當(dāng)前語(yǔ)言模型在結(jié)構(gòu)化、持久性、自適應(yīng)記憶能力上的關(guān)鍵空白,讓大模型真正實(shí)現(xiàn)「記得住、改得了、學(xué)得快」。
更多關(guān)于這個(gè)項(xiàng)目的內(nèi)容可以參考他們的官網(wǎng)、論文、以及開源代碼。
官網(wǎng):https://memos.memtenor.cn
論文:https://memos.openmem.net/paper_memos_v2
代碼:https://github.com/MemTensor/MemOS(Preview版本)
如果想要更直接和項(xiàng)目開發(fā)團(tuán)隊(duì)聯(lián)系,MemOS團(tuán)隊(duì)還提供了微信群和Discord群。
微信群:掃描下方二維碼項(xiàng)目
Discord地址:https://discord.gg/Txbx3gebZR
圖2:社區(qū)二維碼
接下來(lái),我們將圍繞MemOS的動(dòng)機(jī)、核心概念MemCube、具體實(shí)現(xiàn)、記憶調(diào)度評(píng)估與未來(lái)展望等方面進(jìn)行逐一解析。
MemOS
從「被動(dòng)生成器」到「主動(dòng)記憶體」
「記憶」在學(xué)術(shù)界和工業(yè)界的確也有相關(guān)的研究了,一些相關(guān)的框架(比如,Mem0,Zep等)也有提出來(lái),但是這些框架在記憶層面普遍存在「弱結(jié)構(gòu)、弱管理、弱融合」的系統(tǒng)性短板。
簡(jiǎn)單來(lái)說(shuō),這些框架把「記憶」擺上了臺(tái)面,讓用戶意識(shí)到可以去主動(dòng)管理它們。然而,如何設(shè)計(jì)記憶框架更便于用戶對(duì)記憶的主動(dòng)管理仍是難題。
MemOS提出了一種新的范式:將「記憶」從模型運(yùn)行的隱性副產(chǎn)物,提升為具備生命周期、調(diào)度策略與統(tǒng)一結(jié)構(gòu)的「一級(jí)資源」,并圍繞其構(gòu)建操作系統(tǒng)級(jí)的治理機(jī)制。
為此,MemOS將復(fù)雜的記憶系統(tǒng)性地劃分為三類核心形態(tài),為智能體多層次認(rèn)知打下結(jié)構(gòu)性基礎(chǔ)。
明文記憶(Plaintext Memory)
指外部提供、可顯式管理的結(jié)構(gòu)化知識(shí),如用戶偏好、規(guī)則文檔和上下文注解。它具備可編輯、可審計(jì)和可共享的特性,是支持個(gè)性化體驗(yàn)和知識(shí)動(dòng)態(tài)演進(jìn)的關(guān)鍵基礎(chǔ)。
在Preview版本中,MemOS提供了基于樹狀結(jié)構(gòu)的明文記憶管理,將外部文檔與對(duì)話中提取的關(guān)鍵信息轉(zhuǎn)化為Neo4j中的分層樹狀記憶,實(shí)現(xiàn)了高效存儲(chǔ)、關(guān)系檢索與版本追溯。
圖3:樹狀明文記憶示意圖
激活記憶(Activation Memory)
指模型推理過(guò)程中產(chǎn)生的瞬時(shí)認(rèn)知狀態(tài)(如KV Cache),它扮演著類「工作記憶」的角色,維系對(duì)話上下文的連續(xù)性與一致性。
MemOS首次將激活記憶抽象為一種可調(diào)度的系統(tǒng)資源,支持按需喚醒、壓縮與固化,使短期記憶具備演化為長(zhǎng)期能力的潛力。
在Preview版本中,MemOS實(shí)現(xiàn)了KV Cache的標(biāo)準(zhǔn)化管理,將對(duì)話內(nèi)容依據(jù)Chat Template格式進(jìn)行結(jié)構(gòu)化,并預(yù)先存儲(chǔ)于GPU中。
這樣,當(dāng)用戶再次發(fā)起請(qǐng)求時(shí),系統(tǒng)可即時(shí)復(fù)用緩存,有效縮短解碼時(shí)延,顯著提升記憶的獲取效率和推理響應(yīng)速度。
參數(shù)記憶(Parametric Memory)
指固化在模型權(quán)重中的長(zhǎng)期知識(shí),類似于人類的本能與常識(shí)。它具備調(diào)用速度快、延遲低的優(yōu)勢(shì),是大模型通用能力的重要基座。
通過(guò)LoRA等高效微調(diào)方法,參數(shù)記憶可以模塊化注入領(lǐng)域?qū)僦R(shí),實(shí)現(xiàn)「即插即用」的能力擴(kuò)展,幫助模型快速適應(yīng)多樣化場(chǎng)景(該功能在Preview版本中尚未開放)。
圖4:三種記憶類型
MemCube
統(tǒng)一調(diào)度記憶的「原子單元」
如何統(tǒng)一存儲(chǔ)這三種形態(tài)的記憶?MemOS提出了標(biāo)準(zhǔn)化的記憶封裝結(jié)構(gòu)——MemCube。
MemCube本身可以是一個(gè)Git倉(cāng)庫(kù),MemOS在HuggingFace平臺(tái)上部署了一個(gè)簡(jiǎn)單的demo MemCube供用戶理解與使用。
如此一來(lái),記憶的創(chuàng)建、修改、分發(fā)都變得更加現(xiàn)代,也更靠近大模型生態(tài)的中心。
圖5:MemCube示例
由圖5可見,MemCube是一個(gè)具備自描述、自管理能力的「記憶原子」。
每個(gè)MemCube都包含四種文件:MemCube配置項(xiàng),明文記憶,激活記憶和參數(shù)記憶。
每種記憶文件都可能包括:
元數(shù)據(jù)頭:記錄時(shí)間、來(lái)源、權(quán)限、生命周期等,用于記憶的溯源和治理。
語(yǔ)義負(fù)載:承載實(shí)際的知識(shí)內(nèi)容或狀態(tài)。
行為指標(biāo):自動(dòng)記錄訪問(wèn)頻率、相關(guān)性等,為記憶的「新陳代謝」(替換、壓縮、升級(jí))提供決策依據(jù)。
MemCube中的三種記憶形態(tài)可以靈活的轉(zhuǎn)換,例如,將頻繁使用的明文規(guī)則(明文記憶)轉(zhuǎn)化為激活模板(激活記憶),或?qū)⒎€(wěn)定的行為模式(激活記憶)蒸餾為輕量級(jí)參數(shù)模塊(參數(shù)記憶),讓記憶系統(tǒng)具備了「生長(zhǎng)、重構(gòu)」的自主演化能力。
類操作系統(tǒng)實(shí)現(xiàn)架構(gòu)
三層協(xié)同,高效運(yùn)轉(zhuǎn)
從代碼功能角度來(lái)看,MemOS構(gòu)建了一套包含接口、操作、基礎(chǔ)設(shè)施的三層體系架構(gòu)。
圖6:MemOS代碼實(shí)現(xiàn)架構(gòu)
接口層(Interface Layer)
提供標(biāo)準(zhǔn)化的MemoryAPI,能自動(dòng)理解「存入這條偏好」、「忘記上次的風(fēng)格」等自然語(yǔ)言指令,并將其轉(zhuǎn)換為結(jié)構(gòu)化的記憶操作。當(dāng)前Preview版本以MOS類為具體實(shí)現(xiàn)。
操作層(Operation Layer)
系統(tǒng)的控制核心。它能根據(jù)任務(wù)上下文智能調(diào)度(MemScheduler)、管理記憶生命周期(MemLifecycle)并高效組織海量記憶(MemOperator)。當(dāng)前Preview版本開包括MemScheduler這個(gè)模塊的簡(jiǎn)單實(shí)現(xiàn)。
基礎(chǔ)設(shè)施層(InfrastructureLayer)
提供底層支撐,目前主要包括:
MemCube:是對(duì)底層記憶管理的最大封裝,在這里實(shí)現(xiàn)對(duì)MemCube的load、dump、download、upload等記憶市場(chǎng)式行為
記憶管理:當(dāng)前包括樹狀記憶管理、向量記憶管理等
一些其他模塊支持:持久化存儲(chǔ)(Graph DB,Vector DB等)、模型(OpenAI,HuggingFace,Ollama等)等
MemOS為什么高效?
從Next-Token Prediction到Next-Scene Prediction
在傳統(tǒng)的大模型問(wèn)答系統(tǒng)中,生成流程依然遵循同步的Next-Token機(jī)制:模型接收用戶問(wèn)題→實(shí)時(shí)檢索外部片段→按token逐字生成答案。
檢索或計(jì)算產(chǎn)生的任何停頓,都會(huì)直接拉長(zhǎng)整條推理鏈路,知識(shí)注入與生成緊密耦合,導(dǎo)致GPU容易出現(xiàn)空等,用戶端響應(yīng)時(shí)延明顯。
圖7:記憶調(diào)度
與這種傳統(tǒng)范式不同,MemOS從記憶建模的視角出發(fā),提出了記憶調(diào)度范式,通過(guò)設(shè)計(jì)異步調(diào)度框架,提前預(yù)測(cè)模型可能需要的記憶信息,顯著降低實(shí)時(shí)生成中的效率損耗。
MemOS實(shí)現(xiàn)了針對(duì)MemCube中的三種核心記憶類型(參數(shù)記憶、激活記憶、明文記憶),以及外部知識(shí)庫(kù)(包括互聯(lián)網(wǎng)檢索與超大規(guī)模本地知識(shí))等多元知識(shí)的聯(lián)合調(diào)度。
依托對(duì)對(duì)話輪次與時(shí)間差的精準(zhǔn)感知,系統(tǒng)能夠智能預(yù)測(cè)下一個(gè)場(chǎng)景中可能被調(diào)用的記憶內(nèi)容,并動(dòng)態(tài)路由與預(yù)加載所需的明文、參數(shù)和激活記憶,從而在生成階段即刻命中,最大化信息引入的效率和推理的流暢性。
效果如何?評(píng)測(cè)數(shù)據(jù)說(shuō)話
LoCoMo記憶評(píng)測(cè)
為系統(tǒng)性驗(yàn)證MemOS在真實(shí)應(yīng)用場(chǎng)景下的表現(xiàn),MemOS團(tuán)隊(duì)基于LoCoMo數(shù)據(jù)集進(jìn)行了全面評(píng)測(cè)。
作為當(dāng)前業(yè)界廣泛認(rèn)可的記憶管理基準(zhǔn),LoCoMo已被多種主流框架采用,用于檢驗(yàn)?zāi)P偷挠洃洿嫒∧芰εc多輪對(duì)話一致性。
從官方公開的評(píng)測(cè)數(shù)據(jù)來(lái)看,MemOS在準(zhǔn)確率和計(jì)算效率上均實(shí)現(xiàn)了顯著提升,相較于OpenAI的全局記憶方案,在關(guān)鍵指標(biāo)上展現(xiàn)出更優(yōu)的性能表現(xiàn),進(jìn)一步驗(yàn)證了其在記憶調(diào)度、管理與推理融合方面的技術(shù)領(lǐng)先性。
圖8:基于LoCoMo基準(zhǔn)的對(duì)比評(píng)測(cè)結(jié)果
其論文中也提供了更詳盡的對(duì)比實(shí)驗(yàn)結(jié)果,我們可以清晰地看到:
單跳(Single Hop)任務(wù):MemOS在LLMJudge Score、BERT-F1和METEOR等多個(gè)指標(biāo)上均顯著優(yōu)于其他模型,尤其在準(zhǔn)確率方面表現(xiàn)突出,充分體現(xiàn)了其在直接記憶召回場(chǎng)景下的高效性與可靠性。
多跳(Multi Hop)任務(wù):MemOS依然保持領(lǐng)先,F(xiàn)1和ROUGE-L(RL)指標(biāo)均高于同類方法,驗(yàn)證了其在復(fù)雜推理和多步信息融合任務(wù)中的穩(wěn)定性與優(yōu)勢(shì)。
開放域(Open Domain)任務(wù):MemOS顯著提升了準(zhǔn)確率與召回率,F(xiàn)1分?jǐn)?shù)從傳統(tǒng)模型的29.79提升至35.57,表明在處理范圍更廣、問(wèn)題不確定性更高的任務(wù)時(shí),具備更強(qiáng)的泛化能力。
時(shí)間推理(Temporal Reasoning)任務(wù):MemOS的表現(xiàn)尤為突出,F(xiàn)1、ROUGE-L和BLEU-1(B1)指標(biāo)均大幅領(lǐng)先,展現(xiàn)了其在理解和推斷事件時(shí)間關(guān)系方面的卓越能力。
總體(Overall)評(píng)測(cè):MemOS不僅在各項(xiàng)核心評(píng)分指標(biāo)中持續(xù)領(lǐng)跑,還能在保持較低內(nèi)存上下文規(guī)模(Chunk/Mem Token)的前提下實(shí)現(xiàn)較高準(zhǔn)確率,充分體現(xiàn)了效率與性能的良好平衡。
綜上,憑借系統(tǒng)級(jí)優(yōu)化與靈活的記憶調(diào)度機(jī)制,MemOS在多輪對(duì)話記憶管理的多樣化任務(wù)中均展現(xiàn)出出色的表現(xiàn),整體性能優(yōu)于當(dāng)前主流的多種基線方法。
圖9:完整評(píng)測(cè)結(jié)果
KV Cache記憶評(píng)測(cè)
除了通用的記憶能力評(píng)估,研究團(tuán)隊(duì)還重點(diǎn)考察了MemOS所提出的KV Cache記憶機(jī)制在推理加速方面的實(shí)際效果。
通過(guò)在不同上下文長(zhǎng)度(Short/Medium/Long)以及不同模型規(guī)模(8B/32B/72B)下進(jìn)行對(duì)比測(cè)試,系統(tǒng)性評(píng)估了緩存構(gòu)建時(shí)間(Build)、首Token響應(yīng)時(shí)間(TTFT)以及整體加速比(Speedup)等關(guān)鍵指標(biāo)。
實(shí)驗(yàn)結(jié)果(見圖10)表明,MemOS在多種配置下均顯著優(yōu)化了KVCache的構(gòu)建與復(fù)用效率,使推理過(guò)程更加高效流暢,有效縮短了用戶的等待時(shí)延,并在大規(guī)模模型場(chǎng)景中實(shí)現(xiàn)了可觀的性能加速。
圖10:KV Cache評(píng)測(cè)結(jié)果
實(shí)驗(yàn)結(jié)果表明,隨著模型規(guī)模和上下文長(zhǎng)度的增長(zhǎng),KV緩存帶來(lái)的加速收益呈現(xiàn)顯著上升。
以Qwen3-8B為例,在長(zhǎng)上下文條件下,首Token響應(yīng)時(shí)間加速比最高達(dá)到94.2%;在超大規(guī)模模型Qwen2.5-72B上,依然能穩(wěn)定保持在70%以上,顯著提升了多輪推理的響應(yīng)速度和算力利用率。
這些結(jié)果進(jìn)一步驗(yàn)證了,在「高頻調(diào)用+長(zhǎng)期記憶」的實(shí)際生產(chǎn)場(chǎng)景中,緩存復(fù)用是提升系統(tǒng)吞吐與用戶體驗(yàn)的關(guān)鍵路徑,也為未來(lái)打造更高效、更智能的記憶調(diào)度器奠定了堅(jiān)實(shí)的技術(shù)基礎(chǔ)。
展望未來(lái)
從單一智能體到「記憶生態(tài)系統(tǒng)」
隨著大模型的發(fā)展逐步進(jìn)入規(guī)模邊際收益遞減階段,從以數(shù)據(jù)和參數(shù)為中心轉(zhuǎn)向以「記憶」為中心的范式變革,正成為推動(dòng)模型能力躍遷的關(guān)鍵路徑。MemOS作為首個(gè)將「記憶」納入系統(tǒng)級(jí)治理的基礎(chǔ)設(shè)施,正在為下一代AGI打造一個(gè)「可管理、可遷移、可共享」的運(yùn)行底座。
圖11:Mem-training Scaling
為了進(jìn)一步釋放記憶的潛力,研究團(tuán)隊(duì)提出了一個(gè)更具前瞻性的目標(biāo):構(gòu)建一個(gè)去中心化的記憶生態(tài)系統(tǒng)(Memory Ecosystem)。
基于通用的記憶互操作協(xié)議(MIP,Memory Interchange Protocol),未來(lái)的AI智能體將具備以下能力:
攜帶記憶,跨平臺(tái)遷移:用戶在一個(gè)應(yīng)用中積累的偏好和知識(shí),可以無(wú)縫遷移至另一個(gè)應(yīng)用,從根本上消除「記憶孤島」,讓體驗(yàn)更具連續(xù)性。
交換經(jīng)驗(yàn),協(xié)同進(jìn)化:不同模型或智能體能夠在安全合規(guī)的前提下共享、復(fù)用彼此的記憶,共同形成一個(gè)互聯(lián)互通的智能網(wǎng)絡(luò)。
記憶資產(chǎn)化:記憶不再是「模型的私有數(shù)據(jù)」,而是一種可管理、可共享、甚至可交易的智能資產(chǎn),推動(dòng)智能生產(chǎn)力的重構(gòu)。
通過(guò)將記憶管理從模型推理中成功解耦,MemOS正在助力大模型從單一的語(yǔ)言處理器邁向具備持久認(rèn)知能力的個(gè)性化智能體,為通向通用人工智能鋪設(shè)新的基礎(chǔ)設(shè)施。
OpenMem社區(qū)
共建開放記憶底座,賦能智能系統(tǒng)普惠未來(lái)
MemOS生態(tài)的持續(xù)演進(jìn)與共享共建,離不開社區(qū)的深度參與和多方協(xié)作。為此,研究團(tuán)隊(duì)發(fā)起并打造了一個(gè)開放、協(xié)作、共創(chuàng)的大模型記憶技術(shù)社區(qū)——OpenMem,致力于推動(dòng)記憶管理、記憶增強(qiáng)與記憶共享的研究與應(yīng)用走向可管理、可遷移、可共享的新階段。
當(dāng)前社區(qū)由來(lái)自記憶張量、上海交通大學(xué)、同濟(jì)大學(xué)、浙江大學(xué)、中國(guó)科學(xué)技術(shù)大學(xué)、北京大學(xué)、中國(guó)人民大學(xué)、北京航空航天大學(xué)、南開大學(xué)、上海算法創(chuàng)新研究院等高校研究團(tuán)隊(duì)等研究+產(chǎn)業(yè)團(tuán)隊(duì)共同組成,社區(qū)熱烈歡迎對(duì)AI模型記憶感興趣的研究或產(chǎn)業(yè)團(tuán)隊(duì)加入,共建開放記憶底座,賦能智能系統(tǒng)普惠未來(lái)。
聯(lián)系方式:contact@openmem.net
MemOS開源框架持續(xù)迭代計(jì)劃
社區(qū)團(tuán)隊(duì)也規(guī)劃了下一階段的部分關(guān)鍵迭代方向,歡迎開發(fā)者加入共建:
技術(shù)能力迭代
參數(shù)記憶插件化適配:根據(jù)具體任務(wù)或上下文預(yù)測(cè)結(jié)果,動(dòng)態(tài)路由最合適的LoRA模塊,實(shí)現(xiàn)類似MoE(Mixture of Experts)的參數(shù)記憶架構(gòu),支持快速注入領(lǐng)域知識(shí)。
MemCube多模態(tài)擴(kuò)展:在現(xiàn)有結(jié)構(gòu)基礎(chǔ)上,新增圖像、音頻、視頻等跨模態(tài)記憶的封裝與調(diào)度能力,拓展系統(tǒng)的應(yīng)用邊界。
跨智能體記憶遷移機(jī)制:設(shè)計(jì)安全隔離的沙盒環(huán)境,支持不同智能體之間的記憶遷移、審計(jì)與復(fù)用,推進(jìn)通用記憶互操作協(xié)議(MIP)的實(shí)踐探索。
評(píng)測(cè)體系建設(shè)
LoCoMo評(píng)測(cè)集擴(kuò)展:拓展中文任務(wù),提升對(duì)實(shí)際應(yīng)用場(chǎng)景的覆蓋能力。
場(chǎng)景化端到端評(píng)測(cè)框架:當(dāng)前如LoCoMo等評(píng)測(cè)方案主要覆蓋記憶管理中的部分環(huán)節(jié),缺乏對(duì)完整交互鏈路的評(píng)估。下一階段將構(gòu)建面向?qū)嶋H應(yīng)用的端到端場(chǎng)景化評(píng)測(cè)體系,更全面衡量不同記憶框架的效果與效率。
開發(fā)者工具鏈
OpenMemCLI工具:一鍵生成記憶工程模板,聯(lián)通向量庫(kù)、圖數(shù)據(jù)庫(kù)與遠(yuǎn)程MemOS節(jié)點(diǎn),加速開發(fā)流程。
VSCode插件:集成MemCube管理與調(diào)試能力,支持開發(fā)者在熟悉的工作環(huán)境中進(jìn)行記憶內(nèi)容的可視化操作與調(diào)試。
關(guān)于記憶張量
記憶張量(上海)科技有限公司是上海算法創(chuàng)新研究院孵化的新型大模型公司,由中科院院士擔(dān)任首席科學(xué)顧問(wèn)。
公司聚焦基本原理驅(qū)動(dòng)的系統(tǒng)性創(chuàng)新,以「低成本、低幻覺(jué)、高泛化」為核心特色,致力于探索符合中國(guó)國(guó)情的大模型發(fā)展新路徑,推動(dòng)AI應(yīng)用更廣泛落地。
公司持續(xù)圍繞大模型記憶增強(qiáng)與管理框架進(jìn)行技術(shù)迭代,自主研發(fā)的基于記憶分層架構(gòu)的「憶3」大模型已實(shí)現(xiàn)商業(yè)化落地,業(yè)務(wù)穩(wěn)步增長(zhǎng),獲得招商證券、中國(guó)銀行、中國(guó)電信等頭部國(guó)央企業(yè)認(rèn)可。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.