近日,DeepSeek大模型正式上線國(guó)家級(jí)平臺(tái),標(biāo)志著我國(guó)在人工智能領(lǐng)域邁出了重要一步。
DeepSeek大模型上線國(guó)家級(jí)平臺(tái)
人民網(wǎng)消息顯示,目前DeepSeek-R1、V3、Coder等系列模型已登陸國(guó)家超算互聯(lián)網(wǎng)平臺(tái),用戶無需下載到本地部署,即可在線完成DeepSeek系列模型的推理、部署及定制化訓(xùn)練與開發(fā)。其中,DeepSeek-R1模型提供一鍵推理服務(wù),無需下載本地;還可根據(jù)私有化需求,引入專有數(shù)據(jù),對(duì)模型進(jìn)行定制化訓(xùn)練和開發(fā)。此次上線不僅展示了DeepSeek在技術(shù)上的領(lǐng)先優(yōu)勢(shì),也為廣大用戶提供了更加便捷的AI服務(wù)。
新華社、環(huán)球網(wǎng)等媒體點(diǎn)評(píng)稱,DeepSeek 模型依托國(guó)家超算互聯(lián)網(wǎng)平臺(tái) “普惠易用、豐富好用” 的算力服務(wù),能夠?yàn)楹A恐袊?guó)企業(yè)與用戶提供高性能、高性價(jià)比、高可信的選擇。當(dāng)智能算力不足時(shí),國(guó)家超算互聯(lián)網(wǎng)平臺(tái)所提供的豐富異構(gòu)算力資源和跨域調(diào)度算力功能,能夠確保推理任務(wù)的流暢運(yùn)行,為大規(guī)模 AI 應(yīng)用提供可持續(xù)的算力保障。
國(guó)家超算互聯(lián)網(wǎng)平臺(tái):國(guó)家級(jí)的創(chuàng)新之舉
國(guó)家超算互聯(lián)網(wǎng)平臺(tái)作為科技部2023年啟動(dòng)建設(shè)的國(guó)家級(jí)項(xiàng)目,承載著促進(jìn)超算算力一體化運(yùn)營(yíng)、打造國(guó)家算力底座的重要使命。為推進(jìn)這一宏大工程,科技部成立了工作推進(jìn)組、總體專家組以及超算互聯(lián)網(wǎng)聯(lián)合體,由時(shí)任科技部副部長(zhǎng)相里斌擔(dān)任工作推進(jìn)組組長(zhǎng),中科院院士錢德沛擔(dān)任總體專家組組長(zhǎng)。
錢德沛院士指出,國(guó)家超算互聯(lián)網(wǎng)平臺(tái)以互聯(lián)網(wǎng)思維構(gòu)建國(guó)家超算基礎(chǔ)設(shè)施,打破了傳統(tǒng)算力資源分散的局面,實(shí)現(xiàn)了資源的深度整合。通過該平臺(tái),用戶可便捷獲取所需資源,避免了重復(fù)的技術(shù)性開發(fā),降低了創(chuàng)新門檻,提高了科研與產(chǎn)業(yè)創(chuàng)新效率。在國(guó)際上,尚無類似平臺(tái)的先例,中國(guó)打造國(guó)家超算互聯(lián)網(wǎng)平臺(tái),彰顯了在算力領(lǐng)域敢為人先的創(chuàng)新勇氣與探索精神。
該平臺(tái)還是全國(guó)算力資源的統(tǒng)籌調(diào)度中心。在算力被視為新質(zhì) “能源” 的今天,算力水平已成為衡量國(guó)家科技與經(jīng)濟(jì)實(shí)力的關(guān)鍵指標(biāo)。國(guó)家超算互聯(lián)網(wǎng)平臺(tái)官網(wǎng)顯示,平臺(tái)致力于連接算力產(chǎn)業(yè)上下游及供需雙方,實(shí)現(xiàn)超算、智算等全國(guó)算力資源的統(tǒng)一調(diào)度與高效配置,這是打造國(guó)家算力底座的關(guān)鍵所在。
自2024年4月正式上線以來,截至今年1月,平臺(tái)已連接14個(gè)省份的20多家超算和智算中心,入駐300多家算力服務(wù)商,展現(xiàn)出強(qiáng)大的資源匯聚與整合能力。
DeepSeek-R1 本地化極簡(jiǎn)部署簡(jiǎn)明指南(Ollama可視化方案)
【準(zhǔn)備工作】
硬件要求:配備NVIDIA顯卡的電腦(顯存≥8GB),建議預(yù)留20GB磁盤空間
網(wǎng)絡(luò)準(zhǔn)備:確保可訪問 https://ollama.com
一、Ollama安裝(以Windows為例)
步驟1:下載安裝包
訪問[Ollama官網(wǎng)](https://ollama.com)→點(diǎn)擊「Download→選擇Windows版本
步驟2:安裝ollama
雙擊安裝包→保持默認(rèn)選項(xiàng)→點(diǎn)擊「Install」
出現(xiàn)「Installation complete」提示即成功
步驟3:驗(yàn)證安裝
右鍵點(diǎn)擊Windows開始菜單 ,選擇「終端(管理員)」,在「終端」界面輸入:
ollama——version
這時(shí)[版本信息] 應(yīng)顯示類似“ollama version 0.1.25”這樣的版本號(hào)
以上操作也可以采用在鍵盤上按下Win鍵+R,在調(diào)出“運(yùn)行”中輸入“cmd”打開「終端」后輸入指令:
powershell
ollama——version
二、模型部署流程
步驟1:獲取模型文件
在D盤創(chuàng)建專用文件夾:AI_Models\deepseek-R1
也可在「終端」輸入:
powershell
mkdir D:\AI_Models\deepseek-R1
步驟2:編寫配置文件
在上面所建的“deepseek-R1”文件夾內(nèi)通過Windows的“記事本”編寫并創(chuàng)建“Modelfile”文件,內(nèi)容如下:
FROM deepseek-ai/deepseek-R1:latest
PARAMETER temperature 0.7 # 控制生成隨機(jī)性
PARAMETER num_ctx 4096 # 支持4K上下文
步驟3:執(zhí)行部署命令
在文件夾內(nèi)按住Shift+鼠標(biāo)右鍵,在彈出的選單中選擇「在此處打開Powershell窗口」→輸入:
ollama create deepseek-r1 -f .\Modelfile
觀察終端顯示的下載進(jìn)度條(約需15-30分鐘)
三、可視化交互(推薦使用 Open WebUI)
步驟1:安裝Docker
訪問Docker官網(wǎng)[Docker Desktop](https://www.docker.com/) →下載安裝→完成基礎(chǔ)配置
步驟2:?jiǎn)?dòng)Web服務(wù)
在「終端」執(zhí)行:
powershell
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
步驟3:訪問控制臺(tái)
在瀏覽器界面輸入地址 http://localhost:3000,找到「注冊(cè)賬號(hào)」完成注冊(cè),選擇「DeepSeek-R1」模型
在對(duì)話框中輸入測(cè)試問題:“如何理解DeepSeek-R1的推理過程” ,查看生成結(jié)果。
四、配置優(yōu)化
【方案1:量化加速】
修改“Modelfile”添加量化參數(shù):
QUANTIZATION q4_0 # 啟用4bit量化(顯存需求降至6GB)
【方案2:多GPU分配】
在啟動(dòng)時(shí)指定顯卡:
powershell
OLLAMA_NUM_GPU=2 ollama run deepseek-r1 # 使用前兩塊GPU
五、常見問題診斷
癥狀1:生成速度慢
解決方式:
打開[GPU監(jiān)控] →檢查顯存占用情況→[調(diào)整量化等級(jí)]→[關(guān)閉其他GPU應(yīng)用]
癥狀2:中文輸出亂碼
解決方式:
在WebUI→Settings→將「Default Language」設(shè)置為「中文」
部署后建議首次運(yùn)行時(shí)打開任務(wù)管理器觀察GPU負(fù)載,正常情況 GPU利用率應(yīng)波動(dòng)在60-80%,顯存占用穩(wěn)定在7-8GB。
責(zé)任編輯:張薇
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.