智東西
作者 陳駿達
編輯 云鵬
智東西6月30日報道,今天,國內AI開源社區魔搭在北京舉辦了其首屆開發者大會。截至2025年6月,魔搭社區已經擁有超500家貢獻機構,模型總量超7萬個,并服務了36個國家超1600萬開發者。此外,已經有超過4000個MCP服務在魔搭MCP廣場上發布,支持開發者超過1億次的調用。
魔搭社區如今已是中國最大的AI開源社區,DeepSeek系列模型、MiniMax多款模型、騰訊混元系列模型許多業界頭部模型選擇在魔搭社區開源。這一社區可提供模型體驗、下載、調優、訓練、推理、部署等服務,覆蓋LLM、對話、語音、文生圖、圖生視頻、AI作曲等多個領域。
為進一步激勵開發者對社區的參與,周靖人在大會現場發布了“魔搭開發者勛章激勵計劃”,為在平臺上作出貢獻的開發者賦予榮譽和獎勵,勛章獲得者可以獲得平臺免費GPU算力支持,以及AIGC專區高階訓練券、高階生圖券等獎勵,用于模型生成、模型訓練、應用搭建等場景。
大會期間,還有多位嘉賓分享了他們對具身智能、端側AI等行業重要趨勢的見解。通義千問負責人林俊旸更是提前預告,該團隊將于下個月推出編程能力更強的Coder模型。
會后,周靖人接受了智東西等少數媒體的采訪。周靖人向智東西說道,魔搭既是一個社區,也是一個技術產品,要隨著AI技術的發展而發展。魔搭正在快速迭代其對新技術、新產品、新工具的支持,也希望有更多開發者能加入到魔搭社區本身的開發過程中。
一、魔搭周靖人:模型已成重要生產元素,要幫開發者“找、用、學、玩”
周靖人認為,模型現已成為重要的生產元素,并成為了新一代應用的核心。在大模型技術快速迭代的過程中,開源開放是大模型生態發展的核心力量。
魔搭在成立之初就遵循了開放、中立、非盈利的原則,這一理念吸引了諸多開發者和企業共同參與生態建設。回顧發展歷程,魔搭見證了許多頂尖開源模型的發布。
2023年,業界第一個文本生成視頻的開源模型在魔搭社區發布。同年,百川智能、上海人工智能實驗室書生系列大模型、零一萬物Yi模型等業界領先模型均在魔搭社區開源首發。
2024年,魔搭社區面向AI創作者與設計師群體推出AIGC專區,提供圖片、視頻創作和模型訓練等服務。
2025年,DeepSeek系列模型、階躍星辰開源的Step-Video-T2V視頻生成模型和Step-Audio語音交互模型在魔搭社區首發。
開源開放降低了開發者和企業使用先進AI技術的門檻,并且無需擔憂因為使用某一項技術而被綁定。模型開發者能從中獲取社區反饋和建議,從而形成正向循環。
具體到服務層面,魔搭能在找模型、用模型、學模型、玩模型這四大領域為模型算法開發者、AI應用開發者和模型愛好者提供幫助。
社區對模型家族進行了分類,并配備豐富的案例和API接口,幫助用戶快速將模型集成到實際業務中。同時,云端Notebook功能提供了低成本的開發環境,便于用戶高效探索業務場景。
為簡化大模型與工具的對接流程,魔搭推出了MCP廣場,匯聚數千款MCP服務及托管方案,并開放第三方集成接口。支付寶、MiniMax等創新服務在此獨家首發,進一步拓展了生態應用。
在開發支持方面,魔搭提供了涵蓋訓練、推理、微調和評估等流程的SDK工具包,目前裝機量已突破900萬次。
周靖人分享,在這樣一個技術變革的時代里,能夠讓更多的人使用AI,能夠讓AI的使用觸手可及,普惠到社會的方方面面,是魔搭與開發者努力的重要方向。
二、無問芯穹汪玉:端側AI面臨算力能效困局,軟硬件協同設計可實現突破
大會主論壇上,清華大學電子工程系系主任、無問芯穹發起人汪玉從硬件與算法的協同優化角度,探討了端側AI的挑戰與未來。汪玉認為,AI技術正經歷從云端向終端設備的遷移,隨著AI模型規模的擴大,端側設備在算力和能效上面臨巨大壓力。
與云端側重多用戶并發不同,端側AI更強調低延時響應和單用戶體驗,當前端側AI的理想推理速度大約為100-1000token/s,但端側AI硬件的能力離這一目標還存在顯著差距。
汪玉為上述問題提出了多個突破方向:通過芯片架構創新和存算一體技術提升硬件性能,采用模型壓縮技術開發高效小模型,以及針對具體應用場景進行算法優化適配。
他特別強調,國內產業需要打通從算法設計、軟件開發到硬件制造的全棧協同創新。在硬件層面,其團隊已在FPGA上實現55token/s的推理速度。
汪玉特別看好具身智能的發展前景,認為這是將數字智能延伸至物理空間的重要方向。他呼吁產業界通過軟硬件協同設計、共建數據生態,共同推動端側AI和機器人技術的創新發展,構建面向未來的智能算力基礎設施。
三、星海圖趙行:機器人硬件形態趨于收斂,具身智能需要自己的“ImageNet”
主論壇上,清華大學特別研究員、星海圖聯合創始人趙行進一步分享了具身智能相關的話題。他認為,當前以ChatGPT為代表的離身智能(Disembodied AI)已通過圖靈測試,但具身智能(Embodied AI)仍處于早期階段,其核心瓶頸在于如何在正確的機器人本體上獲取高質量數據,并構建可泛化的模型。
趙行強調,具身智能的突破需要類似計算機視覺領域ImageNet的標準化數據集,但由于機器人需要進行閉環測試,且硬件形態各異,數據采集和模型開發更為復雜。
標準化的硬件平臺是突破上述問題的關鍵。星海圖已經發布了3款機器人本體,計劃在今年年底前采集超過1萬小時的真實世界數據,涵蓋工業、家庭、商業等多樣化任務。
在模型架構上,星海圖提出了“快慢雙系統”的具身基礎模型(Embodied Foundation Model),結合多模態大語言模型(慢思考)和輕量化執行模型(快執行),實現任務規劃與實時閉環控制。
展望未來,趙行預測機器人硬件形態將趨于收斂,基礎模型的泛化能力將在2026年迎來爆發,世界模型技術將增強機器人的預測與自主學習能力。他呼吁全球開發者共同構建具身智能生態,推動其在真實場景的大規模落地。
四、通義千問林俊旸:預訓練技術仍有空間,Qwen Coder模型下月發布
在下午的主題論壇上,通義千問負責人林俊旸分享了他們的開源模型實踐經驗。
今年4月底,Qwen3系列模型迎來發布。模型參數量從0.6B到-235B不等。林俊旸稱,這一代模型主要有三大特點:
混合推理模式:Qwen3全系列都支持混合推理,也就是說在一款模型內實現推理和非推理模式,并允許開發者自主選擇模型的推理長度。但林俊旸認為,這還不是推理模型的理想形態,未來模型還需要具備自己決定是否進行推理的能力。
更多語言支持:Qwen從1.5系列就開始關注多語言,目前Qwen3支持119種語言和方言,在下一版本Qwen會擴展對非洲地區語言的支持。
MCP增強:Qwen3在訓練數據方面針對MCP進行了增強,這本質上提升了模型的Agent能力。
林俊旸透露,Qwen團隊內部更加關注MoE模型Qwen3-30B-A3B和稠密模型Qwen3-4B。Qwen3-30B-A3B在能力和部署難度上實現了平衡,在Qwen團隊的內部測試中甚至超過了14B的稠密模型。
Qwen3-4B專為手機端側設計,做了極致的剪枝和蒸餾,在許多場景的性能已經接近Qwen上一代72B模型的表現。
除了Qwen3之外,今年Qwen團隊還帶來了Qwen-3系列的嵌入模型、重排序模型以及全模態模型Qwen2.5-Omni、多模態模型Qwen-VLO等等。
談及未來,林俊旸稱,業內已經從訓練模型的階段逐漸轉變到訓練Agent的階段,預訓練技術發揮的空間仍然很大,可以通過打造強大的teacher超大型模型,最終做出適用于API調用的模型。
通義千問計劃通過環境反饋的強化學習,教會模型實現長時程的推理。在輸入和輸出側,模型的模態也會不斷增加。下個月,通義千問將會發布適用于編程場景的Coder模型。
結語:中國開源AI生態狂飆,魔搭想成為“首選社區”
作為國內代表性的開源AI社區,魔搭的發展也可謂是中國開源AI的縮影。過去2年多以來,中國AI開源生態迅猛發展,諸如阿里、DeepSeek等企業的開源模型在世界范圍內都具有較強的影響力。
同時,中國的開發者們也在為開源生態不斷貢獻新工具、新技術,相關開源成果在魔搭等平臺開放獲取,最終給全球開發者都帶來了實實在在的價值。
周靖人稱,他們希望將魔搭打造為AI開發者交流的首選社區,實現開發者與社區的共同成長,讓更多的創新想法在魔搭社區碰撞,更多的AI應用在魔搭社區進行孵化,推動下一波AI技術的發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.