2023年是大家公認的AI元年,大量的AI大模型、AI應用問世。隨著人工智能和深度學習的迅速發展,業界已達成共識——終端與AI的融合是大勢所趨。不少人認為,2024年或將是“AI硬件元年”。
當狂熱的情緒從生成式AI領域蔓延至各類終端場景,人們開始期待看得見、摸得著的“實體”產生質變,“AI+可穿戴設備”、“AI+PC”、“AI+手機”等概念火爆硬件產業鏈。但熱潮底下,真正變革性的應用似乎還有待探索。
尚未成熟的“AI+”目前在上述領域的應用表現,也讓人不禁深思,這個“加”真的“加上了”嗎?這股人工智能的風,究竟是盤活市場的概念炒作,還是真的吹到了硬件?AI+場景革命,會是芯片廠商的下一個風口嗎?
今天,我們試圖探討:人工智能涌向各類終端應用場景后,產業鏈上的各類硬件將會朝著何種方向前進?身處不同賽道的廠商們,是否已找到了相對清晰的發力方向,亦或者仍在微光中摸索未來的輪廓?
PART 01AI+可穿戴設備
傳感器
在諸多人工智能與硬件融合的場景中,可穿戴設備被認為是創新空間最為廣闊、最有可能催生出全新硬件品類的賽道。
事實也確實如此,ChatGPT引發AI狂潮后,僅僅一年多時間,市面上就涌現出一大批全新的可穿戴AI產品,從形態、功能等層面探索“AI+可穿戴設備”的方向:搭載ChatGPT表盤的智能手表、集成了多模態AI助手的AR眼鏡、深度融合AI的智能戒指、號稱“AI時代iPhone”的AI Pin、聚焦在對話場景的AI吊墜……
圖源:AI Pin 官網
但遺憾的是,盡管智能穿戴全產業鏈都在積極融入AI技術,但真正具有顛覆性的硬件還未被找到。就算是前段時間被《時代》雜志評為2023年最佳發明之一的AI Pin,也在正式發貨后翻車了,用戶們的吐槽重點集中于“反應速度過慢、手勢識別不準確、發熱嚴重”等問題。
實際上,這也是其他智能可穿戴設備所苦惱的技術難點。從技術層面來看,要實現AI技術的深度融合及應用,可穿戴設備必然需要更強的數據感知、采集、處理和交互能力,而這些需求共同指向了一項技術——傳感器技術。
在過往的可穿戴設備解決方案中,傳感器僅負責感知與采集信號,計算處理環節則交由MCU,MCU分析后產出控制信號,復雜運算則上傳云端處理。但隨著AI技術的融入,越來越多廠商開始嘗試不依賴MCU,讓搭載于可穿戴設備的傳感器更加智能,承載部分計算處理的功能。
“在傳感器本身做一些簡單的處理,實現一些既定的功能,這是必然的趨勢。”Bosch Sensortec亞太區總裁王宏宇表示:“不能說所有的傳感器都需要智能,但為了提升更好的用戶體驗,我們認為傳感器未來是要有一定的計算能力、一定的思考能力,即具備智能的功能。”
圖源:Bosch Sensortec
而在AI處理能力部署的位置上,許多廠商都會選擇讓邊緣AI在MEMS上進行邊緣端處理。“對于智能可穿戴設備,邊緣AI是很好的選擇。”Bosch Sensortec應用工程總監Ruschmeier Frank指出,邊緣AI與傳感器的融合處理,可以形成分布式的智能支持,使設備在幾毫秒內作出決策,從而更好地實現及時響應。
另一方面,數據傳輸的選擇、數據處理及訓練也成為了傳感器的重要演進方向。不同行業對數據傳輸的需求各異,例如游戲行業就特別強調數據傳輸的實時性,絕不允許出現任何延遲。Ruschmeier Frank認為,傳感器制造商在未來需要深入思考并解決兩個核心問題:第一,應該傳輸哪些數據;第二,需要傳輸多少數據,才能確保滿足特定行業的需求。
部分廠商不僅僅滿足于提供傳感器本身,更是開始構建智能傳感器的解決方案平臺,讓可穿戴設備廠商的開發者能夠在傳感器本身植入一些本地AI算法。傳感器廠商將一部分訓練的工作交給終端客戶,既可以在離線的時候訓練傳感器,也可以在在線的時候通過傳感器、通過算法的融合去訓練。
此外,傳感器技術的發展還聚焦于降低功耗和提供定制化服務。目前,智能可穿戴設備行業正致力于尋找最適合集成AI技術的產品形態,這導致了對傳感器需求的多樣化。在激烈的市場競爭中,打造具有差異化的產品特性至關重要。因此,根據客戶需求進行定制化處理,已成為傳感器制造商普遍面臨的挑戰。
PART 02AI+PC
處理器/計算外圍芯片/存儲器
2023年9月,英特爾首次提出了“AI PC”概念,將其譽為PC產業20年一遇的重大革新。此后,PC廠商和芯片廠商開始對此大舉發力,相繼推出了一系列相關產品。
IDC預測,AI PC在中國PC市場中新機的裝配比例將在未來幾年中快速攀升,將于2027年達到85%,成為PC市場主流。
事實上,早在AI PC概念面世之前,市場部分產品已嵌入了一些AI技術,比如AI降噪、AI繪圖等。但時至今日,市面上的AI PC所具備的功能,和市面上的AI應用并沒有本質差別,且供應鏈對此概念尚未形成統一明確的定義。
聯想與IDC聯合提出,AI PC是一個以AI大模型、用戶個人數據、本地AI算力及AI生態等軟硬件的結合體,并定義只有具備五個特征的產品才算是真正的AI PC。華為則認為AI PC是“非常不錯的端側大模型+端側的數據整合和融合能力+端側和云側算力的整合”,即萬物互聯和端云協同。
圖源:聯想與IDC的《AI PC產業(中國)白皮書》
盡管定義上尚未達成一致,但業界普遍認可,端側AI部署所帶來的零部件規格升級將是必然趨勢。“AI PC的硬件要求必然越來越高,無論是核心的處理器芯片,還是EC等計算外圍芯片,對高算力、存儲容量、低功耗等需求都會不斷提升。”芯海科技副總裁楊麗寧指出。
因此我們會看到,這波AI PC浪潮中,芯片公司的吆喝聲最為響亮。英特爾CEO帕特·基辛格喊出“我們正邁向AI PC的新時代”;英偉達CEO黃仁勛更是宣稱“PC行業正迎來一次重生的機遇”;AMD董事長蘇姿豐甚至將公司Slogan從“AMD Yes”更新為“AI PC Yes!”。
AI PC產業鏈的第一批受益者也是他們。為了解決AI本地化運行的首要需求——“算力”,處理器成為了PC產業第一波AI化的核心硬件。
處理器
NPU(神經網絡處理器)是第一個賣點。以英特爾、AMD、高通為代表的處理器大廠,紛紛推出了支持本地AI大模型運行的AI PC處理器,并都著重強調NPU性能。
例如,英特爾在2023年12月發布了酷睿Ultra處理器,該處理器首次集成了NPU,能夠支持高達200億參數的大模型在終端設備上運行;高通的驍龍X Elite處理器,號稱“為AI PC量身定制”,其NPU的算力高達45 TOPS,能夠本地處理超過130億參數的大模型;
AMD則推出了全球首款集成NPU的x86處理器,并宣布其下一代“Strix Point”處理器將重點強化NPU性能,預計AI性能將實現超過3倍的提升;即使是以自研芯片為賣點的蘋果,也被曝M4芯片將主打AI性能,重點放在AI運算核心數、效能及NPU數量。
從處理器功能來看,CPU擅長順序控制,適用于需要低延時的場景,同時也能夠處理較小的傳統模型,如卷積神經網絡或特定大語言模型;GPU更擅長處理高精度格式的并行任務,例如對畫質要求極高的視頻和游戲。相比之下,NPU采用數據驅動并行計算架構,模擬人類神經元和突觸,特別擅長處理視頻、圖像等海量多媒體數據,可以快速處理AI算法和大數據集。
圖源:攝圖網
針對PC端的計算需求,以CPU為核心的算力架構在處理AI神經網絡所需的并行計算任務時顯得力不從心,且成本效益不高。因此,采用“CPU+GPU+NPU”的異構計算方案已成為業界的主流選擇。隨著人工智能的日益重要,未來處理器市場可能會形成CPU與NPU并駕齊驅的局面。
同時,AI PC的浪潮也再次卷起了X86和Arm的架構之爭。Arm架構憑借其在低功耗、長續航、AI加速和定制化方面的優勢,自2023年起吸引了英偉達、英特爾、高通和AMD等行業巨頭的投入,他們計劃最早在2025年推出基于Arm的PC處理器。此外,微軟與高通也展開了合作,致力于將x86架構的Windows核心功能移植到Windows on Arm上。
計算外圍芯片
“AI PC至少需要經歷三個階段。”芯海科技副總裁楊麗寧認為,當下PC產業鏈的硬件升級尚且處于第一個階段,即以處理器為核心的AI化。下一階段則是AI應用迎來井噴式發展,從而帶動PC生態,但同時海量應用場景也會逐步加重處理器的負荷。
“當負荷足夠重時,就需要進入第三個階段,即必須將一些智能化任務外延給計算外圍芯片,這是必然的趨勢。而計算外圍芯片的未來形態,我們始終認為會朝高性能、高安全、高算力的方向發展。”
從PC硬件的角度來看,最核心且最適合承擔PC處理器外延AI功能的就是EC芯片。“2023年12月,我們提出了AI EC芯片的設想,并陸續和客戶進行了AI EC芯片的探討。盡管目前還處于初步產品定義階段,但已探索出了更多的可能性,比如承擔AI PC外部的智能溫控、智能語音識別、身份認證等重要的人機交互功能。”楊麗寧分享到。
圖源:芯海科技
以語音喚醒功能為例,當計算外圍芯片具備分布式智能支持時,處理器甚至解碼芯片都可以保持關閉狀態,僅激活傳感器的接收端。只有在AI完成人聲檢測后,才會激活編解碼器進行深度識別,此時才會采集聲音并進行初步處理,隨后喚醒CPU進一步處理。他強調:“只有這種分級分段式的智能識別機制,才能真正把PC整體功耗降下來。”
因此,楊麗寧贊同王宏宇的觀點,認為在AI處理能力部署方面,AI PC的外圍計算芯片應與智能穿戴設備的傳感器一樣,具備一定的智能處理能力,以實現分布式智能支持,并與邊緣AI進行融合處理。
“AI PC未來會形成不同層級的算力網絡,比如云端的大模型、端側處理器的中等模型、邊緣側EC芯片的小模型、以及傳感器上的更小模型,每個層級所承擔的功能以及傳輸、計算數據的量級都會有較大的差異。且不同層級之間,還會存在著自上而下或自下而上的,模型的訓練、優化和更新。”
存儲器
隨著算力的提升,AI PC對存儲器提出了更高要求。為了有效處理AI產生的大量數據和復雜指令,特別是在運行大語言模型等應用時,內存大小決定模型上限,因此PC存儲產品性能和容量必須同步升級。
對于AI PC的存儲配置,微軟計劃在Windows12為AI PC設置最低門檻——需要至少40TOPS算力和16GB內存。英特爾中國區技術部總經理高宇則認為,未來的AI PC的標配是32GB內存,2025年將看到搭載64GB內存的PC開始出貨。
盡管目前業界對此還沒有統一的標準,但可以肯定的是,AI PC對單臺PC的DRAM和NAND Flash容量需求呈現出上升趨勢。其中,DDR5內存和QLC NAND SSD正成為滿足AI PC存儲需求的關鍵技術。
DDR5可以提供更快的數據傳輸速率、更大的內存容量、更低的功耗以及更高的系統性能,這些都是AI PC在執行數據密集型任務時所必需的關鍵特性。隨著AI PC滲透率提升,預計將推動DDR5子代迭代以及增加更高速率DDR5內存的需求。目前,三星電子和SK海力士正在計劃增加DDR5內存的產量,而美光也宣布將加快向DDR5內存的過渡。
“QLC NAND是解決容量問題的重要路徑。”美光企業副總裁暨存儲部門總經理Jeremy Werner指出,QLC技術可以做到非常低的產品成本,并不斷提升存儲容量;在性能上,既可以確保產品的功耗維持在非常低的水平,同時在需要調取相關數據進行讀取和寫入的時候,又能夠迅速喚醒整個系統。
圖源:CFMS
美光估計,目前QLC NAND SSD導入PC滲透率約20-25%,2024年將可望加速成長推動,AI PC將帶動SSD搭載容量快速提升,朝向TB等級需求邁進。
PART 03AI+手機
SoC芯片/UFS 4.0閃存
AI手機的概念其實并不新鮮,其流行可追溯至2017年。那一年,蘋果發布了搭載A11芯片的iPhone 8,引領了將專用NPU集成到SoC中的潮流。榮耀View 10甚至打出了“你的第一臺AI手機”口號,賣點是搭載了海思麒麟970。
據中國電信2018年發布的《AI終端白皮書》,當時的AI手機被定義為搭載AI芯片、能運行AI應用,具備人臉識別、語音助手、場景識別、系統優化等功能。
到了2024年,AI手機的概念再次成為焦點。與以往不同,這次廠商們將搭載大模型功能的手機稱為“AI手機”。一時間,所有主流手機廠都推出了自家的“AI手機”及端側大模型:華為盤古大模型,OPPO安第斯大模型,vivo藍心大模型,小米MiLM-6B,三星Galaxy AI……
但手機上有大模型,就是AI手機嗎?這一點在手機廠商之間也沒有達成共識。OPPO將此視為手機行業的第三個重大變革階段,并宣布“OPPO正式邁入AI手機時代”;魅族采取了更為激進的策略,宣布“停止制造傳統手機,All in AI”,并將新發布的魅族PRO 21稱為“開放式AI終端”;
另一方面,小米集團總裁盧偉冰持謹慎態度,他認為“AI是未來,是無處不在的能力,但AI手機是噱頭”;榮耀CEO趙明更是直言不諱“能夠提供生成式AI能力的手機并不等于AI手機,甚至相去甚遠。”
圖源:盧偉冰微博
那么,究竟什么是AI手機?這個問題至今還沒有結論。IDC和OPPO聯合發布的《AI手機白皮書》,用4種能力定義了“AI手機”——算力高效利用、真實世界感知、自學習和創作能力。Counterpoint和聯發科發布的《生成式AI手機產業白皮書》則提出:生成式AI手機是利用大規模、預訓練的生成式AI模型,實現多模態內容生成、情境感知,并具備不斷增強的類人能力。
硬件方面,Counterpoint提出5點規格:基于領先工藝和先進架構設計的移動計算平臺,擁有集成或者獨立的神經網絡運算單元(如APU/NPU/TPU),大容量和高帶寬的內存,以及穩定和高速的連接,硬件級和系統級的安全防御。
在此,我們重點探討兩類硬件:SoC芯片和UFS 4.0閃存。
SoC芯片
正如AI PC一樣,AI手機面臨的首要挑戰也是提升算力。Counterpoint估算顯示,2027年生成式AI手機端側整體AI算力將會達到50000EOPS以上。因此,在當前階段,手機SoC芯片的性能提升仍是關鍵。
圖源:《生成式AI手機產業白皮書》
目前,在手機SoC領域,高通、聯發科和蘋果是三大主要競爭者,它們都在各自的SoC中集成了多個不同的處理器單元,包括CPU、GPU、DSP,以及APU/NPU等獨立的AI計算單元,專門負責處理重載的AI任務。
其中,聯發科主打“全大核CPU架構+硬件生成式AI引擎”,其最新推出的天璣9300+在端側支持AI推測解碼加速技術,支持主流的生成式AI大模型,同時兼容Al框架ExecuTorch。
高通驍龍8 Gen 3則號稱“專為生成式AI設計”,將Hexagon DSP升級為Hexagon NPU,融合調度各個單元的算力,支持在終端側運行高達100億參數的生成式AI模型。
作為多代最強手機SoC的推出者,蘋果的AI手機SoC方案雖然尚未揭曉,但已經激發了業界和消費者的期待。
Counterpoint判斷,未來,專用AI計算單元和異構計算架構將共存于手機SoC中,這也意味著,不同運算單元之間通信帶寬的重要性將日益凸顯。
UFS 4.0閃存
同樣的,AI手機也面臨著存儲容量和速率的挑戰。為了適應端側AI大模型的需求,傳輸速度更快、功耗效率更優的UFS 4.0閃存已成為旗艦手機的標配。
UFS是一種為計算和移動系統設計的高性能接口,它通過高速串行接口和優化的協議顯著提升了吞吐量和系統性能。其全雙工接口支持同步讀寫操作,進一步提高了數據傳輸的效率;雙通道的數據傳輸,增加了整體的吞吐量。
2022年8月,JEDEC推出了UFS 4.0標準,理論上其傳輸速率可達4640MB/s,是UFS 3.1的兩倍,是eMMC的十倍以上,同時功耗降低了46%,存儲容量高達1TB,滿足了AI手機對存儲容量、運行速度和電池續航的要求,可以實現更流暢、更即時的人機交互體驗。
而在UFS 4.0基礎上,存儲廠商也在積極進行升級迭代。例如,美光推出了增強版UFS 4.0移動解決方案,與前代UFS 3.1相比,生成式AI應用中的大語言模型加載速度可提高40%。鎧俠發布了第二代UFS 4.0,相比第一代產品,提升了18%順序寫入性能、30%隨機寫入速度和13%隨機讀取性能,并支持高速鏈路啟動序列(HS-LSS)特性,將啟動時間縮短70%。三星也在計劃推出UFS 4.0 4通道產品,據稱其傳輸速度和功耗效率相較UFS4.0會有兩倍的提升。
同時,業界正在積極參與UFS 5.0標準的討論,這預示著未來AI手機的大模型載入時間有望進一步縮短。當然,UFS 4.0的應用范圍不僅限于手機,還擴展到了虛擬現實和自動駕駛等需要處理大量數據的場景。
PART 04
還在等待殺手級應用及顛覆性時刻
回到開頭的問題,隨著AI技術向各類終端應用場景的廣泛滲透,產業鏈中相關硬件的發展方向已經出現雛形,但尚未完全明確。盡管如此,各大廠商正基于各自的理解,積極地與產業鏈上下游討論、碰撞,不斷探索更多可能性,推動硬件之外的創新。
觀察“AI+可穿戴設備”、“AI+PC”、“AI+手機”三大場景,我們可以發現,盡管不同形態的AI終端產品對AI性能、功耗、精度的要求各異,但它們對硬件的感知能力、計算力、存儲容量、智能化水平和數據安全性的需求趨勢是一致的。
同時,如何在發揮硬件優勢的基礎上,串聯和構建應用生態,形成不同場景、不同終端間的連接互聯,為用戶帶來更多AI使用場景,也成為了廠商共同的期待與考驗。
回到當下,大模型落地仍在探索階段,AI可穿戴設備、AI PC和AI手機的面貌還很模糊。無論是廠商還是消費者,都在等待真正意義上的殺手級應用以及顛覆性時刻的到來。
但值得慶祝的是,隨著人工智能與終端場景的深度融合,AI時代又離我們普通人更近了一步。
期待“AI Everything”的到來!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.