AI PC幾乎成為所有新款筆記本宣傳的標配,本地運行大模型、高階人工智能助手成為新款筆記本的基礎操作。但很多時候,筆記本廠商原配的本地大模型功能未必合適,自己動手部署本地DeepSeek自然變成了很好的選擇。特別是隨著酷睿Ultra 200V(Lunar Lake)和酷睿Ultra 200H/HX(Arrow Lake)推動AI PC概念普及,圍繞NPU、GPU、CPU構建的AI加速框架已然成型,現在不妨讓我們以華碩靈耀14 2025為例,看看本地大模型如何部署。
先利其器
華碩靈耀14 2025是近段時間較為熱門的輕薄型筆記本,不僅擁有1.19kg重量,還擁有全鋁合金機身設計,2.8K OLED 120Hz屏幕,現階段電商頂配售價配合國補只需要5999元。
重點在配置上,華碩靈耀14 2025使用了酷睿Ultra 9 285H,32GB LPDDR5X-7467,1TB SSD存儲,在配置滿足了本地運行大模型的基本需求??犷ltra 9 285H基于Arrow Lake-H打造,配備6個Lion Cove P-Core,8個Skymont E-Core,2個LP E-Core,相對上一代Meteor Lake-H在單線程和多線程性能上提升15%,并配備了Xe iGPU,為AI加速奠定基礎。
酷睿Ultra 9 285H的AI TOPS達到99 TOPS,其中包括11 TOPS的NPU,iGPU的77 TOPS,以及CPU的11 TOPS。得益于英特爾打通生態鏈的能力,后面我們提到的部署方案,很大程度上都源自于英特爾提供的完整解決方案。
同時華碩靈耀14 2025也提供了足夠的性能釋放空間,在長時間壓力測試狀態下,CPU功耗維持在33W左右,瞬時最高功耗60W,用來應對本地大模型運算已經足夠。
一步到位
現在進入到部署環節。本地大模型部署,少不了先提到Ollama。Ollama作為開源的輕量級架構,可以在AI PC上輕松的構建、運行和管理大語言模型(LLM)。由于Ollama允許完全本地部署,無需依賴外部服務器或者云端,因此在數據保護上更具有隱私性和安全性。這時候,英特爾提供的IPEX-LLM部署平臺就是一個相當便捷的方式。
IPEX-LLM完整稱呼是Intel LLM Library for PyTorch,是英特爾開發的一個開源的大語言模型(LLM)加速庫,旨在優化英特爾CPU、GPU、NPU上的LLM推理和微調性能。僅需要通過安裝完成部署,然后加載DeepSeek即可。
在魔搭社區搜索Intel/ollama既可以直接跳轉到Ollama 英特爾優化版頁面,在這個頁面內提供了所有部署大模型所需的文件。這套基于IPEX-LLM的Ollama英特爾優化版已經針對11代到14代酷睿,酷睿Ultra系列,以及英特爾Arc A系列和B系列GPU優化。在正式安裝之前,確保驅動更新到最新即可。
按照教程提示,將下載好后的Ollama解壓到一個文件夾中,運行文件夾中的start-ollama.bat啟動Ollama Serve,彈出的窗口不要關閉,通過cmd命令提示符窗口在解壓縮的文件夾中運行Ollama即可。執行命令如下:
.\ollama run deepseek-r1:7b
這時候就會看到Ollama開始下載對應的DeepSeek模型,完成后,即可進入對話模式。如果覺得純文字界面當然還差點意思,后續還可以通過ChatBox AI客戶端,或者Edge瀏覽器插件,安裝之后,客戶端或者插件就會自動檢測到之前安裝的Ollama Serve,不需要更多的設置,就能獲得更直觀的交流界面。
比起直接部署,借助第三方應用運行DeepSeek也是可以的,借助類似于Flowy AIPC等應用,就可以一步到位獲得DeepSeek大模型。搜索Flowy AIPC進入官網,下載安裝程序,登陸,就可以一氣呵成獲得一套完整的人工智能對話界面。在模型市場本地模型中,就可以找到7b到32b的DeepSeek R1,點擊安裝,完成后既可以在對話框中進行對話。
LM Studio同樣是本地開發和運行大語言模型的另一個選擇,同樣是在不聯網的情況下實現本地大模型運行,支持AI助手、離線語言處理、AI集成等功能。安裝方式很簡單,在官網lmstudio.ai一鍵下載安裝之后,在模型搜索中DeepSeek-R1相應的模型,比如DeepSeek-R1-Distill-Qwen-14B,點擊下載,然后等待完成即可。
最后一個方案則是華碩靈耀14 2025自帶的。在更新到最新一版的華碩大廳之后,點擊華碩大廳左下角的小碩知道即可展開部署,整個過程也不需要復雜的操作。
安裝完成后,小碩知道扮演了類似Copilot的工作,筆記本的基礎設置就可以通過自然對話來實現,比如向小碩知道要求調整屏幕亮度、控制揚聲器音量,都不必專門去調用設置,直接在對話框中解決。不過小碩知道的自然語義了解目前還沒有這么順暢,似乎要觸發一定程度的關鍵詞才能召喚出對應功能。
特別是在離線模式下,依靠酷睿Ultra 9 285H的AI加速,就能協助總結文檔內容,在短時間內給出準確的總結。在運行的過程中,可以看到iGPU全負荷運作,酷睿Ultra 9 285H對AI加速已經提供了很好的調用。
效果如何?
得益于華碩靈耀14 2025擁有32GB LPDDR5X-7467內存,實際上分配給酷睿Ultra 9 285H的Arc 140T iGPU作為顯存的容量可更多,運行諸如DeepSeek-R1:8B的大模型已經非常容易。
舉個例子,在一段文字生成過程中,Ultra 9 285H Arc 140T iGPU滿負荷運作,并以25 tokens/s的速度生成文字內容,體感上已經非常順暢。同樣,如果運行Moonlight-16B-A3B模型進行數學公式計算或者詩詞生成,生成速度可以做到40 token/s以上,生成的速度非??炝恕?/p>
為了讓對比更具有參考性,這里我們引入UL Procyon AI Text Generation Benchmark作為文字AI文本測試參考,在文本生成測試中包含了Phi-3.5-mini-3.8B,Mistral-7B-v0.2 7B,Llama -3.1 8B,Llama-2 13B。同時也對顯存提出了嚴苛的要求,只有在16GB以上顯存才能實現Llama-2 13B的測試。
得益于靈耀14 2025的32GB LPDDR5X-7467,四個應用場景都達到了可用的程度。例如Phi-3.5-mini-3.8B中,可以實現20.58 Tokens/s的速度,Mistral-7B-v0.2 7B中也做到了13.13 Tokens/s,已經能夠確保在離線的狀態下,獲得流暢的AI文本生成體驗。
從體驗上來看,這款國補僅需要5759元的華碩靈耀14 2025輕薄筆記本已經具備了不錯的端側AI運行能力。在信息不上傳網絡、離線的狀態下,筆記本就可以實現流暢的文字內容整理、創作,甚至優秀的AI助理。很大程度得益于酷睿Ultra平臺對端側大模型提供了很好的適配,配合亮眼的能效表現,讓輕薄型筆記本也變得智能了起來。
更重要的是,現在端側AI大模型的部署在DeepSeek火爆的半年內已經構建出了一條完整、高效的部署方案,只需要簡單幾步,原本復雜的界面和調試被輕松略過,讓普通玩家也能輕松獲得一套高效的本地AI助手,光憑這一點就相當厲害了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.