海外徹底沸騰!中美大模型戰場又被投下一枚炸彈!
3月6日凌晨,阿里巴巴發布了通義千問QwQ-32B模型。這跟DeepSeek R1一樣屬于推理模型。而且這一320參數的新模型比肩滿血版DeepSeek,被老外們玩瘋了!
可以說是放了個大招,讓海外開發者震驚不已,要知道,后者比QwQ-32B的參數量要大出20倍有余。
老外曬出了QwQ-32B在M4芯片蘋果MacBook上運行飛快的推理速度,感嘆太瘋狂。科技大佬、Hyperbolic Labs聯合創始人兼首席技術官Yuchen Jin則寫道:“小模型太強大了!”
在測試數學能力的AIME24評測集上,以及評估代碼能力的LiveCodeBench中,QwQ-32B表現與DeepSeek-R1相當,遠勝于o1-mini及相同尺寸的R1蒸餾模型!
QwQ-32B打了一場漂亮的翻身仗,閉源的o1-mini可是OpenAI的王牌推理模型。去年o1-mini發布時,OpenAI的CEO Sam Altman在社交媒體上表示:AI的“耐心時刻”已經結束。誰成想沒過半年,o1-mini就被開源的QwQ-32B全方位碾壓。
有心急的海外開發者連夜@各大第三方API托管方,別睡了起來嗨!趕緊起來干活了!
外網徹底沸騰,中國AI儼然成為科技明星,無比震驚的老外們稱QwQ-32B又是一項“瘋狂”的進步。
海外網友為之瘋狂也是可以理解的,QwQ-32B性能強大就不說了,關鍵是性價比太香了!同其他部署昂貴的頭部大模型比,QwQ-32B在消費級顯卡上就能實現本地部署。如果將QwQ-32B添加到代碼能力與輸出token成本的圖表中,它用約1/10的成本就能達到DeepSeek-R1與o3-mini-high之間的性能,這樣極致的性價比前所未有!
還有科技博主做了評測,671B滿血版DeepSeek R1在FP16精度下需要1400G的顯存,QwQ-32B只需4張4090就能跑,將近15倍的差距,大大降低了門檻。更值得注意的是,阿里云采用了寬松的Apache2.0協議,將QwQ-32B模型向全球開源,所有人都可免費下載及商用。
這對于很多普通企業、個人開發者、創業團隊或者專業做AI應用的公司來說,無異于天降神兵。畢竟,對于大多數的企業垂直場景,一個優秀的32B的模型真的已經足以應付很很多,沒必要非得上600多億參數。用中等成本,拿到一個足以對標DeepSeek R1的邏輯推理、數學推理、代碼思考能力的開源大模型,還能在自家環境中任意調試、微調、二次開發,這簡直太香了!
阿里云這次開源QwQ-32B,提振了人們對開源模型的信心,中國不必搞天價設備和超大規模,一樣可以跟國際頂流較量。阿里云這是給中國企業送上了超強外掛啊,好樣的!中國AI問鼎全球,指日可待了!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.