機器之心報道
編輯:Sia
好消息!還記得「AutoGLM 沉思」嗎?短短 14 天、孵化出一個 5000 多個粉絲的小紅書賬號,還接到了商單!
相比 OpenAI 的 Deep Research , 「AutoGLM 沉思」不僅會想(deep research),還能邊想邊干( operator )!
今天,智譜宣布其核心技術鏈路完全開源!包括:
- 基座模型 GLM-4-32B-0414
- 推理模型 GLM-Z1-32B-0414
- 沉思模型 GLM-Z1-Rumination-32B-0414
另外,小尺寸的 9B 系列同時開源,包括:GLM-4-9B-0414、GLM-Z1-9B-0414 。
以上均遵循 MIT 許可協議。
目前,系列所有模型可以通過 z.ai 訪問體驗。新版基座模型和推理模型已同步上線智譜 MaaS 平臺。
體驗鏈接:https://chat.z.ai/
https://bigmodel.cn/
作為國內最早開源大模型的人工智能公司,智譜一直致力于推動 AI 普惠。隨著開源生態建設成為新一輪競爭焦點,智譜曾表示 2025 年將成為智譜的開源年,持續加碼生態建設。
開源頂尖模型,兩種尺寸
新一代基座模型 GLM-4-32B-0414 以 32B 參數量比肩更大參數量主流模型性能。
由于預訓練階段加入了更多代碼類、推理類數據,并在對齊階段針對智能體能力進行了優化,它有著行業最好的行動能力,在工具調用、聯網搜索、代碼等智能體任務方面更加有效。
GLM-4-32B-0414 支持在對話過程中實時展示生成代碼,支持包括 HTML、CSS、JS 和 SVG 在內的語言。無需切換到其它程序,用戶一鍵點擊即可在對話窗口實時看到代碼運行結果,以便進行靈活的修改與調整。
同步開源的 GLM-Z1-32B-0414 推理模型則創造了 「以小博大」的典范。
它基于新一代基礎模型、在預訓練階段加入了更多推理類數據并在對齊階段深度優化了通用能力,320 億參數量即可實現滿血版 DeepSeek-R1( 6710 億參數)的推理性能。
在AIME 24/25 、LiveCodeBench 、GPQA 等基準測試中展現出較為強大的數理推理能力,比肩滿血版 DeepSeek-R1,可以勝任更多復雜任務。
除了推理性能,成本也是一大亮點。得益于優化 GQA 參數、量化、投機采樣等技術,該推理模型能夠在消費級顯卡上流暢運行,同時實現每秒 200 token 的極速響應,相當于人類語速的 50 倍,做到了 「問題未看清,答案已生成」的極致體驗。
GLM-Z1-Rumination-32B-0414沉思模型代表了新一代AI的發展方向。相比之前仍停留在深度思考階段的推理模型,這個經過強化學習訓練的版本展現出更強的自主能力。
它不再局限于靜態知識推理,而是能夠像人類研究者一樣主動聯網搜索資料、調用各種工具、進行深度分析并自我驗證,形成完整的思考閉環。這種 「實時搜索-深度分析-動態驗證」的循環思考模式,讓 AI 在處理開放性問題時更加游刃有余,標志著 AI 從單純的高智商向高智商與高自主并重的轉變。
當然,作為前沿技術,該模型在自主探索和準確性方面仍有提升空間,研發團隊正在持續優化中。
最后,GLM-Z1-9B-0414 是一個驚喜。
盡管尺寸更小,GLM-Z1-9B-0414 在數學推理和通用任務中依然展現出極為優秀的能力,其整體表現已處于同尺寸開源模型中的領先水平。
特別是在資源受限的場景下,該模型在效率與效果之間實現了出色的平衡,為追求輕量化部署的用戶提供了強有力的選擇。
面向企業服務:最快、最便宜
智譜核心還是在向企業提供模型即服務(MaaS),重點在于服務。目前,智譜已有 1000 多個大模型規模化應用,覆蓋傳媒、咨詢、消費、金融、新能源、互聯網、智能辦公等多個細分場景的多個頭部企業。
現在,基座、推理兩類模型也已同步上線智譜 MaaS 開放平臺,面向企業與開發者提供 API 服務,滿足用戶多快好省的需求。
其中,推理模型有三個版本,針對不同業務場景需求。
- GLM-Z1-AirX(極速版)
- 定位國內最快推理模型,推理速度可達 200 tokens/秒,比常規快 8 倍;適合高并發、極速響應業務場景。
- GLM-Z1-Air(高性價比版)
- 價格僅為 DeepSeek-R1 的 1/30,適合高頻調用場景;算得上國內最高性價比的推理模型。
- GLM-Z1-Flash(免費版)
- 支持免費使用,旨在進一步降低模型使用門檻。
GLM-Z1-AirX(極速版)響應速度
視頻鏈接:
https://mp.weixin.qq.com/s/kPAIeYwIAqyIPf1585jR-w
RI 響應速度
對應價格表:
上線的基礎模型包括兩個版本:GLM-4-Air-250414、GLM-4-Flash-250414,其中 GLM-4-Flash-250414 完全免費。
本地部署,旗艦級配置需要 1 張 H100/A100 顯卡,高性能配置則需要 4 張 4090/3090 系列顯卡。
對于選擇在線體驗的用戶,則可以通過 MaaS 平臺獲得極速或性價比版本的服務,同時也能體驗完整的 Deep Research 功能。
全球用戶:完整體驗,免費享
對于想要完整體驗模型能力的玩家們,即日起 App 與網頁端登錄z.ai,即可與最新的 GLM 模型免費對話。
這里集合了沉思模型、推理模型、對話模型,后續也將作為智譜最新模型的交互體驗入口。
網頁體驗鏈接:https://chat.z.ai/
因為對標 Open AI 的 Deep Research,我們先簡單體驗了一下沉思模型的深度調研能力。
既然衛生巾都塌房了,女性如何選擇安全可信的衛生用品呢?
輸入問題后,模型開始上網找新聞、看報告,閱讀做筆記,按照搞清事實、各種標準、如何辨別、選擇的邏輯組織內容。
幾分鐘過后,自動生成一份詳細指南。
視頻鏈接:
https://mp.weixin.qq.com/s/kPAIeYwIAqyIPf1585jR-w
沉思模型更適合做深度調研,追求強大的開發體驗,不妨試試基礎模型。
例如:給我設計一個移動端機器學習平臺的 UI,其中要包括訓練任務,存儲管理,和個人統計界面。個人統計界面要用圖表展示用戶過去一段時間的各類資源使用情況。使用 Tailwind CSS 來美化頁面,把這 3 個手機界面平鋪展示到一個 HTML 頁面中。
不過,用 svg 展示一只騎自行車的鸕鶿,還是失敗了。
還等啥,現在就去體驗吧。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.