如果您希望可以時常見面,歡迎標星收藏哦~
來源:內容 編譯自 IEEE 。
納文·維爾馬在普林斯頓大學的實驗室就像一座博物館,展示了工程師們嘗試利用模擬現象而非數字計算來提高人工智能效率的各種方法。其中一個工作臺上擺放著迄今為止最節能的基于磁存儲器的神經網絡計算機。在另一個工作臺上,你會發現一個基于電阻存儲器的芯片,它可以計算迄今為止任何模擬人工智能系統中最大的數字矩陣。
維爾馬表示,這兩種材料都沒有商業前景。更糟糕的是,他的實驗室這部分簡直就是一片墳場。
多年來,模擬人工智能一直吸引著芯片架構師的想象力。它結合了兩個關鍵概念,可以大幅降低機器學習的能耗。首先,它限制了存儲芯片和處理器之間昂貴的比特移動。其次,它利用電流流動的物理原理,而不是邏輯上的1和0,來高效地進行機器學習的關鍵計算。
盡管這個想法很有吸引力,但各種模擬人工智能方案都未能真正降低人工智能令人咋舌的能源需求。維爾馬對此心知肚明。他已經嘗試了所有方案。
但一年前《IEEE Spectrum》雜志到訪維爾馬實驗室時,他發現實驗室后方有一塊芯片,它代表著模擬人工智能以及實現人工智能實用化和普及所需的節能計算的希望。這塊芯片不是用電流計算,而是對電荷進行求和。這看似無關緊要的差異,卻可能是克服所有其他模擬人工智能方案所面臨的噪聲問題的關鍵。
本周,Verma 的初創公司EnCharge AI發布了首款基于該新架構的芯片 EN100。該公司聲稱,該芯片能夠處理各種 AI 任務,其每瓦性能比競爭對手的芯片高出 20 倍。它被設計成單處理器卡,每秒可執行 200 萬億次運算,功耗為 8.25 瓦,旨在節省支持 AI 的筆記本電腦的電池壽命。此外,還有一款四芯片、每秒可執行 1000 萬億次運算的芯片,專門針對 AI 工作站。
在機器學習中,“很偶然地,我們的主要運算是矩陣乘法,”Verma 說。這基本上就是取一個數字數組,將其與另一個數組相乘,然后將所有這些乘法的結果相加。很早以前,工程師們就注意到了一個巧合:電氣工程的兩個基本定律可以精確地完成這樣的運算。歐姆定律說,電壓乘以電導就能得到電流。基爾霍夫電流定律說,如果一束電流從一束電線流入一個點,那么這些電流之和就是流出該點的電流。所以,基本上,每一束輸入電壓都會推動電流通過一個電阻(電導是電阻的倒數),電流乘以電壓值,所有這些電流加起來得到一個值。算完了。
聽起來不錯?嗯,其實還好。構成神經網絡的大部分數據是“權重”,也就是用來乘以輸入的數據。將這些數據從內存移動到處理器邏輯中執行工作,消耗了GPU很大一部分的功耗。相反,在大多數模擬 AI 方案中,權重以電導值(上圖的電阻)的形式存儲在幾種非易失性存儲器中。由于權重數據已經存儲在需要進行計算的位置,因此無需移動太多,從而節省了大量功耗。
免費數學與靜態數據的結合有望實現僅需千分之一萬億焦耳能量的計算。可惜的是,這遠非模擬人工智能所能達到的水平。
任何模擬計算的根本問題始終是信噪比。模擬人工智能在這方面更是難上加難。信號(在這里是所有乘法運算的總和)往往會被眾多可能的噪聲源淹沒。
“問題在于,半導體器件本身就很復雜,”維爾馬說道。假設你有一個模擬神經網絡,其中的權重以電導的形式存儲在單個RRAM單元中。這些權重值的存儲方式是在RRAM單元上施加相對較高的電壓,并持續一段規定的時間。問題在于,即使你在兩個單元上施加完全相同的電壓,并持續相同的時間,這兩個單元的電導值最終也會略有不同。更糟糕的是,這些電導值可能會隨溫度變化。
差異可能很小,但請記住,該操作會將許多乘法相加,因此噪聲會被放大。更糟糕的是,產生的電流隨后會轉換成電壓,作為下一層神經網絡的輸入,這一步驟會進一步增加噪聲。
研究人員從計算機科學和設備物理兩個角度著手解決這個問題。為了彌補噪聲的影響,研究人員發明了一些方法,將一些關于設備物理缺陷的知識融入到他們的神經網絡模型中。另一些人則專注于制造行為盡可能可預測的設備。IBM在這方面進行了廣泛的研究,并同時做到了這兩點。
此類技術在小型系統中具有競爭力,即使尚未取得商業成功,這些芯片旨在為物聯網邊緣的設備提供低功耗機器學習。早期進入者Mythic AI已經生產了不止一代模擬 AI 芯片,但它所處的領域,低功耗數字芯片正在取得成功。
EnCharge 的解決方案通過測量電荷量(而非機器學習中“乘法累加”方法中的電荷流)來消除噪聲。在傳統的模擬 AI 中,乘法取決于電壓、電導和電流之間的關系。而在這個新方案中,它取決于電壓、電容和電荷之間的關系——基本上,電荷等于電容乘以電壓。
為什么這種差異如此重要?這歸結于執行乘法運算的組件。EnCharge 不使用 RRAM 等復雜且易受攻擊的器件,而是使用電容器。
電容器本質上是由兩根導體夾著一層絕緣體構成的。導體之間的電壓差會導致電荷在其中一個導體上積聚。對于機器學習而言,電容器的關鍵在于其值(電容)由其尺寸決定。(導體面積越大或導體之間的間距越小,電容就越大。)
“它們唯一依賴的就是幾何形狀,也就是導線之間的間距,”維爾馬說道,“而這正是CMOS技術中唯一能夠控制得非常好的東西。” EnCharge在其處理器硅片上方的銅互連層中構建了一個精確賦值的電容器陣列。
構成神經網絡模型大部分的數據,即權重,存儲在數字存儲單元陣列中,每個單元都連接到一個電容器。然后,神經網絡正在分析的數據會通過單元內置的簡單邏輯乘以權重位,結果會以電荷的形式存儲在電容器上。之后,陣列會切換到一種模式,所有乘法結果產生的電荷都會累積起來,并將結果數字化。
雖然這項最初的發明可以追溯到2017年,對Verma的實驗室來說意義非凡,但他表示,其基本概念卻相當古老。“這叫做開關電容操作;事實證明,我們已經研究了幾十年了,”他說。例如,它被用于商用高精度模數轉換器。“我們的創新之處在于,弄清楚了如何在進行內存計算的架構中使用它。”
Verma 的實驗室和 EnCharge 花費了數年時間證明該技術的可編程性和可擴展性,并通過適合與 2017 年截然不同的 AI 需求的架構和軟件堆棧對其進行了共同優化。目前,最終產品已交由早期開發者使用,而該公司(最近從三星風險投資、富士康等公司籌集了 1 億美元)計劃進行新一輪早期合作。
但 EnCharge 正在進入一個競爭激烈的領域,競爭對手中不乏巨頭Nvidia。在 3 月份的大型開發者大會 GTC 上,Nvidia 宣布計劃推出基于其 GB10 CPU-GPU 組合的PC 產品,以及基于即將推出的GB300構建的工作站。
EnCharge 瞄準的低功耗領域將面臨激烈的競爭。其中一些公司甚至采用了內存計算技術。例如,D-Matrix和Axelera就承接了模擬 AI 的部分業務,將內存嵌入計算,但所有操作都以數字化方式完成。他們各自開發了定制的SRAM存儲單元,這些單元既可以進行存儲和乘法運算,也可以以數字化方式進行求和運算。此外,還有至少一家更傳統的模擬 AI 初創公司Sagence參與其中。
維爾馬的樂觀態度并不令人意外。他在一份聲明中表示,這項新技術“意味著先進、安全且個性化的人工智能可以在本地運行,而無需依賴云基礎設施。我們希望這將徹底擴展人工智能的應用范圍。”
https://spectrum.ieee.org/analog-ai-chip-architecture
半導體精品公眾號推薦
專注半導體領域更多原創內容
關注全球半導體產業動向與趨勢
*免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅為了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯系半導體行業觀察。
今天是《半導體行業觀察》為您分享的第4055期內容,歡迎關注。
『半導體第一垂直媒體』
實時 專業 原創 深度
公眾號ID:icbank
喜歡我們的內容就點“在看”分享給小伙伴哦
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.