大家好,我是 Ai 學習的老章
Mistral ai
Mistral AI 是一家位于法國的人工智能初創公司,成立于 2023 年 4 月。由曾在 Google DeepMind 工作的 Arthur Mensch,以及曾在 Meta AI 工作的 Guillaume Lample 和 Timothée Lacroix 共同創立。
Mistral AI 最突出個貢獻應該是它 2023 年 12 月發布了全球首個基于 MoE(Mixture of Experts,混合專家)技術的大型語言模型 ——Mistral - 8x7B - MoE,比 DeepSeek 還要早。
今天我們一起看看它最近開源的一個面向軟件工程任務的代理型大語言模型——Devstral
mistralai/Devstral-Small-2505
Devstral 擅長使用工具探索代碼庫、編輯多個文件并為軟件工程代理提供支持。
該模型在 SWE-bench 上表現出色,使其成為此基準測試中排名第一的開源模型。
SWE-Bench 是用于評估大語言模型(LLM)在真實軟件開發環境中解決代碼問題的基準測試工具,尤其在自動修復 bug、代碼生成等軟件工程任務中具有權威性。??
Devstral 與在任何框架(包括為模型量身定制的框架)下評估的封閉和開放模型進行了比較,在多項指標上的表現明顯優于一些封閉源代碼的替代方案。例如,Devstral 在某些方面超越了 GPT-4.1-mini 20%。
很討巧,沒有跟大佬們比較,畢竟不是一個量級,不過在開源里算不錯了
沒有官方數據,貌似 DeepSeek-R1-0528 在SWE - bench Verified上得分是 57.6
SWE - bench Verified 是 OpenAI 推出的 SWE - bench 的改進版本,包含 500 個經過驗證的樣本,是一個更精煉的子集。
我稍微查了一下當前最牛逼的模型應該是 Claude Opus 4 和 Sonnet 4,它們在 SWE - Bench 上的分數是 72.5% 和 72.7% 。
官方介紹可以在單個 RTX 4090 或具有 32GB 內存的 Mac 上運行
可能指的是量化版吧
我看了一下 Ollama,4Bit 精度量化模型文件只有 14GB
https://ollama.com/library/devstral
它部署很簡單,不做介紹了ollama run devstral
即可
下面介紹的是其 fp16 精度版,模型文件 47GB 的樣子
下載
https://modelscope.cn/models/mistralai/Devstral-Small-2505/files
pip install modelscope mkdir devstral-small-2505 cd devstral-small-22505 modelscope download mistralai/Devstral-Small-2505 --local_dir .

47GB 的模型,2 張 4090 估計不夠用
直接 4 卡啟動
pip install vllm --upgrade cd devstral-small-22505 CUDA_VIDIBLE_DEVICES=1,2,3,4 vllm serve . --served-model-name Devstral-Small-2505 --tensor-parallel-size 4 --tokenizer_mode mistral --config_format mistral --load_format mistral --tool-call-parser mistral --enable-auto-tool-choice --tensor-parallel-size 4
啟動成功之后就可以把 api 接入 chatbot 或 ide 中使用了
測試情況,后續更新
其實是我的卡不夠用了,目前在跑的 和 都正在用,等空閑了再測試吧。
制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!