下一代邊緣模型性能超越全球頂級競品;現已在Hugging Face平臺開源發(fā)布
Liquid AI今日宣布推出其下一代Liquid基礎模型(LFM2),該模型在邊緣模型類別中創(chuàng)下了速度、能效和質量的新紀錄。此次發(fā)布基于Liquid AI從根本原理出發(fā)的模型設計方法。與傳統(tǒng)基于Transformer的模型不同,LFM2由結構化、自適應的算子組成,可實現更高效的訓練、更快的推理速度和更強的泛化能力,在長上下文或資源受限的場景中表現尤為突出。
Liquid AI將LFM2開源,以完全透明的方式向世界展示這一創(chuàng)新架構。目前,LFM2的權重可從Hugging Face下載,也可通過Liquid Playground進行測試。Liquid AI還宣布,未來幾天內,這些模型將集成到其邊緣AI平臺和一款iOS原生消費級應用中,供用戶測試使用。
Liquid AI聯(lián)合創(chuàng)始人兼首席執(zhí)行官Ramin Hasani表示:“Liquid在打造一流基礎模型時,始終將質量、延遲和內存效率放在首位。LFM2系列模型的設計、開發(fā)和優(yōu)化均以在任何處理器上實現設備端部署為目標,真正釋放了生成式AI和智能體AI在邊緣場景的應用潛力。LFM2是我們未來幾個月將發(fā)布的一系列強大模型中的首款模型。”
LFM2的發(fā)布標志著全球AI競爭的一個里程碑,這是美國公司首次公開展示在效率和質量上明顯優(yōu)于中國領先開源小型語言模型的成果,包括Alibaba和ByteDance開發(fā)的模型。
在直接對比評測中,LFM2模型在速度、延遲和指令遵循基準測試中全面超越了最先進的競品。主要亮點包括:
- 在CPU上,與Qwen3、Gemma 3n Matformer以及迄今為止所有其他基于Transformer和非Transformer的自回歸模型相比,LFM2的吞吐量提升200%且延遲更低。
- 該模型不僅速度最快,在指令遵循和函數調用(構建可靠AI智能體時,大型語言模型(LLM)的主要屬性)方面,其平均表現也顯著優(yōu)于同規(guī)模級別的其他模型。這使LFM2成為本地和邊緣用例的理想選擇。
- 基于這一新架構和新訓練基礎設施構建的LFM模型,訓練效率較上一代LFM提升300%,使其成為構建高性能通用AI系統(tǒng)的最具成本效益的方式。
將大型生成式模型從遠程云端遷移到輕量化的設備端LLM,可實現毫秒級延遲、離線運行能力和數據主權隱私保護。這些能力對于需要實時推理的手機、筆記本電腦、汽車、機器人、可穿戴設備、衛(wèi)星及其他終端至關重要。在計入國防、航天和網絡安全領域的投入之前,僅整合消費電子、機器人、智能家電、金融、電子商務和教育等高增長領域的邊緣AI技術,就足以推動緊湊型私有基礎模型的總潛在市場規(guī)模在2035年逼近1萬億美元。
Liquid AI已與這些領域的眾多《財富》500強企業(yè)展開合作。該公司提供超高效率的小型多模態(tài)基礎模型,搭配安全的企業(yè)級部署技術棧,可將每臺設備都轉化為本地AI設備。隨著企業(yè)從云端LLM轉向經濟高效、快速、私密的本地智能,這為Liquid AI提供了獲取更大市場份額的機會。
關于Liquid AI:
Liquid AI處于人工智能創(chuàng)新的前沿,其開發(fā)的基礎模型不斷刷新性能和效率標準。Liquid AI的使命是構建各種規(guī)模的高效通用AI系統(tǒng),持續(xù)突破技術的邊界,將更多智能融入手機、筆記本電腦、汽車、衛(wèi)星等各類設備中。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.