Qwen3 開源了!不只是開源模型,連部署文檔都一并放出——本地跑通不再是高門檻挑戰。本文將帶你用最低成本嘗鮮 Qwen3 本地部署,實測小模型能力邊界,并拆解背后的開源策略與使用感知。

Qwen3 通過 混合推理架構和分層參數激活策略,在性能超越 DeepSeek-R1 的同時實現成本與效率的顛覆性突破,尤其適合需要平衡性能與資源的場景。
趁著剛剛發布的千問3,趕快本地部署一下,體驗一吧
本地化部署開始:
用ollama工具
筆記本電腦:輕薄本,win11系統,核顯
第一步:選擇模型版本
ollama官網:https://ollama.com/library/qwen3
我這里用個最小的“qwen3:0.6b”小模型演示
第二步:確認本機已經安裝ollama;參考部署deepseek文章:deepseek-r1模型本地化部署+聯網搜索【教程】
第三步:安裝模型
win+r,打開命令提示符輸入
ollamarun qwen3:0.6b
用ollama安裝qwen3:0.6b模型
等待幾分鐘,
安裝完成
第四步:chatbox設置
打開chatbox詳細安裝過程,參考deepseek-r1模型本地化部署+聯網搜索【教程】
用chatbox設置模型
現在可以使用了~
直接在chatbox中提問就可以了~
異常情況:
如果按照設置出現報錯,
檢查ollama版本,因為千問新開源的模型,舊版本ollama無法驅動,需要升級一下就可以,
升級完成就可以。
本文由 @董方旭 原創發布于人人都是產品經理。未經作者許可,禁止轉載
題圖來自Unsplash,基于CC0協議
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.