導語
上海科學智能研究院、集智科學研究中心和阿里云聯合發布了《AI × Science十大前沿觀察》,梳理出35個研究前沿,來推動科學發展的黃金時代到來。本篇為前沿觀察10,掃描下方二維碼,可獲得完整版下載、快速鏈接論文原文。
掃描二維碼 下載完整報告
新型智能計算
背景介紹
在當今數字化時代,以神經網絡為代表的智能計算不斷生成海量數據,同時也推動了對算力的更高需求。傳統計算所面臨的挑戰也逐步展現:
大模型訓練過程中的能耗和成本過高[1];
當前訓練大模型的計算需求增長速度遠快于現代計算機硬件的改進速度[2];
AI算法可能被惡意復制和傳播,對人類安全帶來不可預測的風險[3]。
這一趨勢正在深刻改變計算機體系架構的格局。為滿足特定應用的需求,設計專門的領域處理器已成為一種重要趨勢,如谷歌的TPU和華為的昇騰AI芯片會對神經網絡在芯片上的運行進行優化。這種軟硬件一體化的方案顯著提
升了應用程序的運行效率。除了在傳統計算架構內的創新外,軟硬件結合的新型計算模式也逐漸浮出水面。例如,凡人計算(Mortal Computation)[4,5] 、光學計算(Optical Computing)[6,7]和量子計算(Quantum Computing)等新興理念,展現出在更高效、安全和節能的框架下推進AI技術發展的潛力。
凡人計算通過將硬件與計算模型緊密結合,減少了冗余的數據傳輸和熱量散發,從而顯著降低了計算系統的能耗并提升了計算效率。此外,軟硬件結合的模式在某種程度上限制了AI的無限復制能力,從本質上降低了未來超級智能失控的風險[4,5] 。
光學計算是一個新興的學科領域,它利用光學原理和技術來實現信息的處理、存儲和傳輸。 與傳統的電子計算相比, 光學計算在速度、功耗和并行性等方面具有獨特的優勢,在人工智能、大數據處理和科學計算等領域具有廣闊的應用前景。 光學神經網絡是光學計算與人工智能領域的一個交叉方向,它利用光學技術模擬神經網絡,克服傳統計算平臺在深度神經網絡加速方面的瓶頸,并為未來的 AI 應用提供更高效的計算方案[6]。
量子計算是一種革命性的計算模式,基于量子力學的特性,如疊加態和量子糾纏,展現出比經典計算機更強大的信息存儲和并行處理能力。因此,量子計算有望解決傳統計算機難以應對的特定問題,包括量子系統模擬、量子化學、密碼學、機器學習加速及組合優化等領域[8]。在量子計算與人工智能的交叉點上,兩者的合作雖被寄予厚望,并被認為孕育著巨大潛力,但科研實踐中如何更高效地推進量子計算與人工智能的結合,仍然是一個開放的問題。
在“AI for Quantum”方面,AI技術在量子計算硬件、量子算法設計、量子糾錯和量子誤差緩解等領域正發揮著日益重要的作用[9]。首先,在量子噪聲處理方面,谷歌團隊最近推出了一種基于Transformer架構的遞歸神經網絡解碼器AlphaQubit[10]。該解碼器在處理谷歌Sycamore量子處理器的真實數據時,表現優于其他先進解碼器。同時,IBM也在探索將機器學習模型應用于量子錯誤緩解技術[11],以在不犧牲計算精度的前提下降低錯誤緩解成本。除了量子噪聲處理,人工智能還被引入到量子編譯(Quantum Compilation)中。量子線路模型是廣泛使用的量子計算模型之一,如何高效地將設計好的量子算法映射為量子線路中的量子比特和量子門操作的過程被稱為量子編譯。近期,研究人員利用生成人工智能中的擴散模型(diffusion models)來生成量子編譯所需的量子門[12]。在AI輔助的量子算法層面,AI通過預先優化參數來預測新實例的最佳參數,緩解了變分量子算法面臨的訓練中貧瘠高原(Barren Plateau)問題[9]。
另一方面,在“Quantum for AI”中,研究人員不斷構建經典機器學習的量子版本,并在實驗中追求更多量子比特以較低錯誤率執行更深層次的量子線路,力求通過實際案例展示量子優勢[13]。在經典計算機上訓練機器學習模型通常需要消耗大量的計算資源和時間,一些研究提出將機器學習的訓練問題表述為二次無約束二進制優化(Quadratic Unconstrained Binary Optimization,QUBO)問題,并使用絕熱量子計算機求解QUBO問題[14]。在“Quantum for AI” 中具有代表性的算法包括量子神經網絡(Quantum Neural Networks)和HHL算法(Harrow–Hassidim–Lloyd Algorithm)。HHL算法是一種用于對線性方程組進行數值求解的量子算法[15],由于線性系統在科學和工程的絕大多數領域被普遍應用,因此線性方程組的量子算法具有廣泛的應用潛力。對于特定類型的矩陣,HHL算法能夠將線性方程求解的復雜度從經典最優算法的指數級降低至多項式級。意識到HHL算法在量子機器學習領域的重要性后,Scott Aaronson分析了可能限制該算法的因素[16],指出量子態的制備成本和讀出成本可能會消除指數加速。量子神經網絡(QNN)是一種引入量子計算機制的神經網絡模型,Abbas、Amira等人的研究通過有效維度這一尺度指出,量子神經網絡相較于經典神經網絡具有顯著優勢[17]。然而,量子神經網絡同樣面臨訓練中貧瘠高原(Barren Plateau)問題[18]。此外,《自然》雜志的一篇新聞特寫文章指出[19],“量子計算機是否能為機器學習提供優勢,應該通過實驗來驗證,而不是僅僅依賴數學證據來判斷其優越性。”由于量子計算機的技術實現仍處于初級階段,目前的量子神經網絡模型大多屬于理論構想,尚待在物理實驗中進行全面驗證。
因此,當前量子計算領域的重要任務是實現具有更高保真度并且規模足夠大的量子計算機。在實現量子計算的物理載體中,超導體系已被廣泛接受,其次是高保真度門操作的離子阱系統。然而,近年來,中性原子體系以黑馬的姿態迅速崛起,成為量子計算的重要競爭者[20-23]。2018年,加州理工大學教授John Preskill提出了NISQ(Noisy Intermediate-Scale Quantum)概念[24],強調當前量子計算硬件的局限性,包括受噪聲影響的不完美量子操控和量子比特數量的限制(通常在10到1000之間)。NISQ概念提出后,量子計算領域在這兩個維度上取得了最新進展:
1. 在量子比特數量方面,走在最前面的兩家商業公司:量子計算公司Atom Computing利用中性原子構建的量子計算平臺已實現1,180個量子比特[25],而IBM的Condor超導量子處理器則包含1121個量子比特[26]。
2. 在處理噪聲引起的錯誤方面,主要采用量子糾錯(QEC)和量子錯誤緩解(QEM)兩種方法。目前,量子計算領域的重要工作大多與量子糾錯相關,例如在中性原子量子計算體系和超導量子體系上實現量子糾錯碼。
量子計算與傳統計算之間并非替代關系,而是相輔相成。未來,量子計算有望與傳統計算結合,形成混合計算架構,充分發揮各自的優勢,推動計算技術的進一步發展。
研究進展
進展目錄 1. 凡人計算 2. 光學計算 3. 量子計算 a. 物理實驗中的量子優勢 b. 實現量子優勢的瓶頸 c. 量子糾錯 d. 量子錯誤緩解 e. 中性原子量子計算
凡人計算
推薦理由:杰弗里·辛頓(Geoffrey Hinton)提出了基于硬件的“凡人計算”概念[4]。 他指出,生物系統中的信息處理所依賴的計算過程是與其執行的物理基質不可分割的,即“軟件”無法脫離“硬件”而存在,這與計算機科學中的計算概念形成了鮮明對比。Hinton提出使用前向-前向傳播的算法(Forward-Forward,FF)來實現凡人計算。
從“永生”軟件向“凡人計算”范式的演進,為實現基于自然主義的機器智能提供了新的技術路徑。研究[5]指出,不朽計算(圖2左)和凡人計算(圖2右)在熱力學消耗上存在顯著差異。在典型的馮·諾依曼架構中,計算機體系結構中不同類型的存儲之間存在“能量壁”,需要花費能量將信息最終載入CPU。而在神經形態芯片中,凡人計算程序的處理直接在存儲之上或存儲內進行,避開了馮·諾依曼架構中所需的大量能耗。
不朽計算(左)和凡人計算(右)在熱力學消耗上的差異|圖片來源:Ororbia and Karl (2023). "Mortal computation: A foundation for biomimetic intelligence."
凡人計算也意味著一旦實現該程序的硬件媒介失效或“死亡”,其所擁有的知識、行為和特定功能,包括其特性也將隨之消失。這類似于生物有機體在無法維持自身時,其所獲得的知識和行為也隨之終止,從而使得AI具備了自我限制和自我調節能力,降低了超級智能失控的可能。
光學計算
光學計算作為一種新型計算范式,為深度神經網絡工作負載提供加速,從而克服電子計算在該領域的局限性。清華大學研究團隊創新性地提出了全前向模式學習(Fully Forward Mode Learning, FFM),通過構建基于光學系統對稱性的可微分物理模型,在自由空間光子神經網絡中實現了原位梯度計算與參數優化[7]。該方法利用洛倫茲互易性原理,將誤差傳播轉化為前向物理過程,突破性地解決了光學反向傳播對精準系統建模的依賴問題。在8層百萬參數量級自由空間光學神經網絡實驗中,該方法在Fashion-MNIST數據集上取得92.5%分類準確率,相較離線數值模擬理想模型(96%)展現出優異的物理系統適配能力,驗證了全光域深度學習訓練的可行性。
傳統光學系統建模與基于FFM(Full-Forward Mode)的現場機器學習之間的區別與聯系。|圖片來源:Xue, Z., Zhou, T., Xu, Z., Yu, S., Dai, Q., & Fang, L. (2024). Fully forward mode training for optical neural networks. Nature, 632(8024), 280-286.
量子計算
物理實驗中的量子優勢
推薦理由:人類通過實驗認知自然,但迄今為止這種認知能力一直受限于通過經典視角觀測量子世界。理查德·費曼(Richard Feynman)提出量子計算的動機之一是意識到經典計算機在模擬量子系統時的根本性局限:“自然不是經典的,如果你想模擬自然,最好用量子力學。”近期一項研究體現了費曼的思想,也許在量子實驗相關的任務可以找到量子計算的優勢場景 [27],相較于傳統實驗模式(即對物理系統進行測量后使用經典計算機處理結果),一種將物理系統數據轉導至穩定量子存儲器、并利用量子計算機處理數據的實驗架構,可能具有顯著優勢。
量子增強實驗與傳統實驗在學習物理系統性質方面差異的核心圖示。上半部分展示了量子增強實驗的流程。下半部分展示了傳統實驗的流程。信息存儲方式和處理方式不同: 量子增強實驗使用量子存儲器存儲量子信息,并且使用量子設備處理量子信息。傳統實驗使用經典設備存儲與處理經典信息。處理量子信息又細分為學歷物理態與學習物理過程。|圖片來源:Huang, Hsin-Yuan, et al. "Quantum advantage in learning from experiments." Science 376.6598 (2022): 1182-1186.
這種指數優勢體現在3個方面:(1)物理系統性質預測、(2)含噪量子態的主成分分析以及(3)物理動力學近似模型學習等任務中。舉例來說,在物理系統性質預測的任務上,作者提到了一個案例,即預測Ising模型的磁性。傳統方法需要測量大量的自旋狀態,并進行復雜的計算才能預測其磁性。而量子方法可以通過制備Ising模型的量子態,并進行簡單的測量,就能更有效地預測其磁性。作者對這三種學習任務進行了數學分析以證明具有指數級量子優勢,并在Google Sycamore處理器上進行了實驗,證明了即使使用目前的噪聲量子設備,量子增強實驗也能勝過傳統實驗。
實現量子優勢的瓶頸
推薦理由:迄今為止,僅在少數實驗中證明了量子優勢。2019年,Google AI Quantum團隊宣布了一項被稱為“量子計算優越性”的里程碑事件 [28]。Google團隊利用超導量子技術構建了一臺名為Sycamore的可編程量子計算機,能在相鄰量子比特之間執行糾纏的雙量子比特門。目前已知的最佳模擬方法表明,Sycamore幾分鐘內的計算結果,在現有最強大的經典超級計算機上至少需要幾天時間來完成[29]。
要充分發揮量子計算在解決實際問題上的加速優勢,量子比特的數量和質量必須滿足一定的要求。盡管量子處理器的量子比特數量持續增長,且通過云計算服務逐漸向學術界開放,但Nature Reviews Physics的一項研究[30]顯示:2016年至2022年間quant-ph類別預印本中,研究所用的量子比特平均數量隨量子體積(QV)增長升至10.5,中位數僅為6。該數值偏低源于NISQ設備抗噪能力有限,當量子比特數量增加時,計算結果可靠性顯著下降。即使在具備更多量子比特的情況下,為了減少噪聲對算法結果的干擾,研究者只能降低量子比特的使用數量。近日清華團隊的研究從新的視角揭示了噪聲對量子計算的巨大危害[31]。研究指出,在噪聲強度某個閾值時,關聯生成中量子優勢突然消失。
各年使用的量子比特數量沒有異常值的統計圖。白色圓圈顯示平均值。|圖片來源:Ichikawa, T., Hakoshima, H., Inui, K., Ito, K., Matsuda, R., Mitarai, K., ... & Fujii, K. (2024). Current numbers of qubits and their uses. Nature Reviews Physics, 1-3.
量子糾錯
推薦理由:這些現象顯示,要發揮量子計算的實質性優勢,我們必須對量子噪聲這一“絆腳石”發起挑戰。量子計算中處理噪聲引起的錯誤,主要源于量子糾錯 (Quantum Error Correction, QEC) 這一方法。量子糾錯最常見的方法是使用多個物理量子比特編碼一個邏輯量子比特。盡管上個世紀90年代理論上就不斷有量子糾錯碼被提出,但是實驗上實現這些糾錯碼主要是近些年的事情。2024年,谷歌發表在Nature的論文顯示[32],其超導量子處理器Willow擁有105個物理比特,構建了碼距為3、5、7的表面碼。當表面碼的碼距每增加2時,邏輯錯誤率被2.14 ± 0.02 倍抑制,這使得每個周期的錯誤為 0.143% ±0.003%。隨著碼距的持續擴展,邏輯量子比特的錯誤率將維持隨碼距呈指數下降的特性。需特別說明,當表面碼碼距為7時,構建單個邏輯量子比特需消耗97個物理比特(碼距d與物理比特數量呈二次方關系),并額外配置4個物理比特用于泄漏抑制。
表面碼的碼距d=3提升到碼距d=5,編碼錯誤率降低 2.15 倍。表面碼的碼距d=5提升到碼距d=7,編碼錯誤率降低 2.12 倍。|圖片來源:Google Quantum AI and Collaborators. Quantum error correction below the surface code threshold. Nature (2024). https://doi.org/10.1038/s41586-024-08449-y
可以看出量子糾錯的代價非常高。Gidney的研究指出[33],如果使用Shor的算法破解RSA-2048需要2000萬個含噪量子比特、運行8小時。在這2000萬個量子比特中,只有0.064%的量子比特用于計算,剩下的99.936%都是用于糾錯的冗余。
量子錯誤緩解
推薦理由:從長遠來看,量子糾錯技術有望成為量子計算的終極解決方案;然而在當前硬件條件受限的短期階段,采用誤差緩解而非完全消除錯誤的過渡性策略更為可行,這便是量子錯誤緩解(Quantum Error Mitigation, QEM)[34]被廣泛研究的原因。變分量子算法常采用的量子錯誤緩解包含零噪聲外推(Zero-noise Extrapolation, ZNE)、概率性錯誤消除(Probabilistic Error Cancellation, PEC)、測量錯誤緩解(Measurement error mitigation)。
中性原子量子計算
推薦理由:在量子計算的物理載體競爭中,超導體系和離子阱體系長期以來一直是研究者的重點。然而,近年來,中性原子量子計算迅速崛起,成為這一領域中進展最顯著的體系。與其他量子計算體系相比,根據DiVincenzo判據,中性原子量子計算在多個維度上展現出明顯優勢。
1.可拓展性:中性原子量子計算能夠操控大量的原子,實驗中已經實現了多達6100個原子的陣列[21];
2. 相干時間:中性原子的退相干時間可達到12.6秒[21];
3. 量子門構建:通過偶極相互作用,中性原子能夠構建高保真度的量子門;此外,研究者可以通過光鑷(optical tweezers)移動原子陣列實現非近鄰量子比特之間的門操作,這為量子電路的靈活設計提供了新的可能性[22],實現了99.5%保真度的雙比特糾纏門,超過了表面碼的糾錯閾值。
在中性原子量子計算領域,哈佛大學Lukin組及其合作者的研究成果尤為突出。他們成功地利用280個物理量子比特實現了多種類型的量子糾錯編碼:表面碼(Surface Code)、顏色碼(Color Code)和三維碼(3D Code)[23]。其中物理量子比特通過受困在光鑷中的銣原子(87Rb)的超精細能級進行物理編碼。該實驗展示了使用邏輯量子比特進行可擴展糾錯和量子信息處理的關鍵技術。
基于可重構原子陣列的可編程邏輯處理器。處理器分為三個區域:存儲、糾纏和讀出。通過光鑷(optical tweezers)操控87Rb原子。|圖片來源: Bluvstein, D., Evered, S. J., Geim, A. A., Li, S. H., Zhou, H., Manovitz, T., ... & Lukin, M. D. (2024). Logical quantum processor based on reconfigurable atom arrays. Nature, 626(7997), 58-65.
應用
2023年在arXiv上發布的一篇長達300多頁的文章,對量子算法在多個潛在應用領域進行了深入調查[8]。這項研究不僅展示了量子計算在各個行業中的應用潛力,還強調了其在解決復雜問題時的獨特優勢。隨著不斷擴展的應用范圍,量子計算的實際價值將更加凸顯。
2022年,Lukin組在Science上發表的高被引用論文[35],提出了基于中性原子陣列求解最大獨立集問題的創新方法。該研究利用了Rydberg原子的Rydberg blockade特性,能夠有效地編碼和求解最大獨立集問題。相較于經典退火算法,實驗結果顯示在深層線路中求解精確解問題時存在超線性加速現象。隨后一篇綜述文章[36],概述了中性原子量子計算可以解決多種與圖論相關的其他問題,例如最大團問題(Maximum Clique Problem)、最小頂點覆蓋問題(Minimum Vertex Cover Problem)、圖著色問題(Graph Coloring Problem)等。眾多
的現實問題可以建模成圖相關的組會優化問題,這些解決方案在實際應用中具有廣泛的潛力。
在核聚變領域,谷歌與美國Sandia國家實驗室等機構合作研究并提出了一種量子算法,能夠用于計算核聚變實驗中溫致密物質的“制動能力” [37]。制動能力是指高能α粒子由于與周圍等離子體的庫侖相互作用而減速的速率。理解系統的制動能力對優化反應堆效率至關重要。當α粒子在等離子體中因減速作用損失動能時,其能量轉移將引發電離氣體溫度上升。這種自加熱效應是維持聚變燃燒等離子體的關鍵機制,而建立精準的動力學模型將為未來聚變堆工程設計提供重要理論支撐。
一個拋射體(紅色)以初始速度穿過介質(藍色)(左)。研究監測拋射體與介質間的能量傳遞(藍色實線),并確定其平均斜率(紅色虛線)(右)。|圖片來源:Rubin et al. (2023) "Quantum computation of stopping power for inertial fusion target design."
挑戰與展望
目前這些新型計算的實現還存在諸多挑戰。凡人計算試圖將生物系統的有限性和自我調節應用于AI,但在理論與實踐的融合方面存在復雜挑戰,尤其是如何準確捕捉“凡人性”特征并將其有效轉化到計算系統中。光學計算需攻克納米光子集成與大規模制造工藝。量子計算目前面臨的問題包括:高精度糾錯和噪聲控制、有限的量子比特數量與相干時間、材料和制造工藝的局限性等。這些因素使得實現大規模、通用的量子計算機在短期內仍然充滿挑戰。
展望未來,通用人工智能(AGI)的發展將呈現多元化技術路徑并行的格局。凡人計算促使我們更換思路,從“需求導向、工具中心”的AI觀念轉向植根于生命本質的智能觀念。光學計算帶來的高速運算能力可以應用于需要快速響應的場景,例如高級駕駛輔助系統。由于傳統計算機在速度和功耗方面存在限制,光學計算方案迅速崛起,成為替代電子計算機、構建人工神經網絡骨干的有力選擇。 量子機器學習是一個充滿潛力的應用領域,它融合了量子計算與機器學習技術,通過量子加速提升訓練和推理的效率。目前,像TensorFlow和Qiskit等平臺已開始支持量子模型,為研究人員探索QML應用提供了有力的工具。盡管在該領域已有一些進展,谷歌在2024年I/O大會上指出,尚未有人在處理經典數據的機器學習中展示出明確的量子優勢。這一現狀突顯出該領域對創新方法的迫切需求,亟需證明量子計算在機器學習中的實際效能。在未來的研究和應用中,除了單獨使用某種計算方式,還有望能夠通過組合計算,結合各技術的優點,更高效地解決各種復雜的計算問題。
參考文獻
[1] Rillig, Matthias C., et al. "Risks and benefits of large language models for the environment." Environmental Science & Technology 57.9 (2023): 3464-3466.
https://pubs.acs.org/doi/10.1021/acs.est.3c01106
概述:大模型對環境的直接和間接影響
[2] Conklin, Alexander A., and Suhas Kumar. "Solving the big computing problems in the twenty-first century." Nature Electronics 6.7 (2023): 464-466.
https://www.nature.com/articles/s41928-023-00985-1
概述:21世紀重大計算問題的概述
[3] Silver, David, et al. "Mastering the game of go without human knowledge." nature 550.7676 (2017): 354-359.
https://www.nature.com/articles/nature24270
概述:關于AlphaGo Zero的論文,使用一種完全獨立的增強學習算法,沒有人類數據和指導。
[4] Hinton, Geoffrey. "The forward-forward algorithm: Some preliminary investigations." arXiv preprint arXiv:2212.13345 (2022).
https://arxiv.org/abs/2212.13345
推薦理由:Hinton的論文,介紹一種新的神經網絡學習過程,前向-前向算法(Forward?Forward Algorithm)
[5] Ororbia, Alexander, and Karl Friston. "Mortal computation: A foundation for biomimetic intelligence." arXiv preprint arXiv:2311.09589 (2023).
https://arxiv.org/abs/2311.09589
推薦理由: 關于凡人計算的綜述
[6] Pasricha, Sudeep. "Optical Computing for Deep Neural Network Acceleration: Foundations, Recent Developments, and Emerging Directions." arXiv preprint arXiv:2407.21184 (2024).
https://arxiv.org/abs/2407.21184
推薦理由: 綜述論文,主要關注光學計算作為一種新興技術,如何克服傳統計算平臺在深度神經網絡加速方面的瓶頸,并為未來的 AI 應用提供更高效的計算方案。
[7] Xue, Zhiwei, et al. "Fully forward mode training for optical neural networks." Nature 632.8024 (2024): 280-286.
https://www.nature.com/articles/s41586-024-07687-4
推薦理由: 提出全前向模式(FFM)學習,首次在光學物理系統中直接實現深度學習訓練,突破傳統依賴數字模擬的離線建模限制
[8] Dalzell, Alexander M., et al. "Quantum algorithms: A survey of applications and end-to-end complexities." arXiv preprint arXiv:2310.03011 (2023).
https://arxiv.org/abs/2311.09589
推薦理由:【應用方向重要的綜述】該論文長達300多頁,很全面的覆蓋了量子計算在各領域的應用。第一部分從應用領域的角度出發,第二部分是從算法的角度出發
[9] Alexeev, Yuri, et al. "Artificial Intelligence for Quantum Computing." arXiv preprint arXiv:2411.09131 (2024).
https://arxiv.org/abs/2411.09131
推薦理由:【人工智能輔助量子計算的綜述】人工智能在量子計算各個流程中的輔助,包含量子糾錯,測量,量子線路設計,控制和優化。
[10] Bausch, Johannes, et al. "Learning high-accuracy error decoding for quantum processors." Nature (2024): 1-7.
https://www.nature.com/articles/s41586-024-08148-8
推薦理由:針對量子糾錯碼的解碼過程,谷歌團隊提出AlphaQubit,基于機器學習的方法處理來自Sycamore 量子芯片的真實數據。
[11] Liao, Haoran, et al. "Machine learning for practical quantum error mitigation." Nature Machine Intelligence (2024): 1-9.
https://www.nature.com/articles/s42256-024-00927-2
概述:利用機器學習的方法進行量子錯誤緩解
[12] Fürrutter, F., Mu?oz-Gil, G., & Briegel, H. J. (2024). Quantum circuit synthesis with diffusion models. Nature Machine Intelligence, 1-10.
https://www.nature.com/articles/s42256-024-00831-9
概述:利用人工智能中的diffusion模型,生成量子編譯所需的量子門
[13] Wang, Y., & Liu, J. (2024). A comprehensive review of quantum machine learning: from NISQ to fault tolerance. Reports on Progress in Physics.
https://iopscience.iop.org/article/10.1088/1361-6633/ad7f69
推薦理由:【量子機器學習方面的綜述】與量子機器學習相關的基本概念、算法。并且考慮了硬件限制。
[14] Date, Prasanna, Davis Arthur, and Lauren Pusey-Nazzaro. "QUBO formulations for training machine learning models." Scientific reports 11.1 (2021): 10029.
https://www.nature.com/articles/s41598-021-89461-4
概述:將線性回歸、支持向量機(SVM)和平衡k均值聚類這三種機器學習模型的訓練問題表述為QUBO問題,在絕熱量子計算機上解決。
[15] Harrow, Aram W., Avinatan Hassidim, and Seth Lloyd. "Quantum algorithm for linear systems of equations." Physical review letters 103.15 (2009): 150502.
https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.103.150502
推薦理由:求解線性方程組的量子算法的起始論文
[16] Aaronson, Scott. "Read the fine print." Nature Physics 11.4 (2015): 291-293.
https://www.nature.com/articles/nphys3272
概述:Scott Aaronson分析了可能限制HHL算法實際量子優勢的注意事項和因素。
[17] Abbas, Amira, et al. "The power of quantum neural networks." Nature Computational Science 1.6 (2021): 403-409.
https://www.nature.com/articles/s43588-021-00084-1
概述:論證量子神經網絡優勢的論文,通過有效維度這一尺度。
[18] McClean, Jarrod R., et al. "Barren plateaus in quantum neural network training landscapes." Nature communications 9.1 (2018): 4812.
https://www.nature.com/articles/s41467-018-07090-4
概述:量子神經網絡的訓練過程中遇到的困難Barren plateaus
[19] Castelvecchi, Davide. "The AI-quantum computing mash-up: will it revolutionize science?." Nature (2024).
https://www.nature.com/articles/d41586-023-04007-0
概述:非學術論文,論述各方對量子與人工智能結合是否會帶來優勢的看法。
[20] Evered, S.J., Bluvstein, D., Kalinowski, M. et al. High-fidelity parallel entangling gates on a neutral-atom quantum computer. Nature 622, 268–272 (2023).
https://www.nature.com/articles/s41586-023-06481-y
概述:中性原子量子計算在量子門保真度方面取得的重要進展。
[21] Manetsch, H. J., Nomura, G., Bataille, E., Leung, K. H., Lv, X., & Endres, M. (2024). A tweezer array with 6100 highly coherent atomic qubits. arXiv preprint arXiv:2403.12021.
https://arxiv.org/abs/2403.12021
概述:中性原子量子計算在物理量子比特的進展,光鑷最多抓取原子數量突破六千。
[22] Bluvstein, D., Levine, H., Semeghini, G., Wang, T. T., Ebadi, S., Kalinowski, M., ... & Lukin, M. D. (2022). A quantum processor based on coherent transport of entangled atom arrays. Nature, 604(7906), 451-456.
https://www.nature.com/articles/s41586-022-04592-6
概述:中性原子量子計算在量子門操作取得的進展,通過移動光鑷實現任意量子比特之間的門操作。
[23] Bluvstein, D., Evered, S. J., Geim, A. A., Li, S. H., Zhou, H., Manovitz, T., ... & Lukin, M. D. (2024). Logical quantum processor based on reconfigurable atom arrays. Nature, 626(7997), 58-65.
https://www.nature.com/articles/s41586-023-06927-3
推薦理由:不論是量子計算物理體系,還是量子糾錯,都是非常重要的一篇進展。展示了中性原子量子計算多方面的優勢。
[24] Preskill J. Quantum Computing in the NISQ era and beyond[J]. Quantum, 2018, 2: 79.
https://quantum-journal.org/papers/q-2018-08-06-79/
概述:Preskill提出NISQ概念的論文。
[25] Quantum startup Atom Computing first to exceed 1,000 qubits
https://atom-computing.com/quantum-startup-atom-computing-first-to-exceed-1000-qubits/
概述:量子計算公司Atom Computing在物理量子比特數量上突破一千個。
[26] Keumars Afifi-Sabet (2023-12-11). "Scientists just built a massive 1,000-qubit quantum chip, but why are they more excited about one 10 times smaller?". livescience.com. Retrieved 2023-12-27
https://www.livescience.com/technology/computing/ibm-scientists-built-massive-condor-1000-qubit-quantum-computer-chip-133-qubit-heron-system-two
概述:IBM的量子芯片Condor量子比特數量突破一千個
[27] Huang, Hsin-Yuan, et al. "Quantum advantage in learning from experiments." Science 376.6598 (2022): 1182-1186.
https://www.science.org/doi/full/10.1126/science.abn7293
概述:量子計算技術在下面任務中的優勢(1)物理系統性質預測、(2)含噪量子態的主成分分析以及(3)物理動力學近似模型學習。
[28] Arute, Frank, et al. "Quantum supremacy using a programmable superconducting processor." Nature 574.7779 (2019): 505-510.
https://www.nature.com/articles/s41586-019-1666-5
概述:谷歌的量子芯片Sycamore運行隨機電路采樣(Random Circuit Sampling,RCS)實驗實現“量子霸權”
[29] Huang, Cupjin, et al. "Classical simulation of quantum supremacy circuits." arXiv preprint arXiv:2005.06787 (2020).
https://arxiv.org/abs/2005.06787
概述:指出谷歌實現“量子霸權”的論文中,超級計算機 Summit 大約 10,000 年完成的任務其實在他們的方法和模擬器下可以在不到 20 天完成。
[30] Ichikawa, T., Hakoshima, H., Inui, K., Ito, K., Matsuda, R., Mitarai, K., ... & Fujii, K. (2024). Current numbers of qubits and their uses. Nature Reviews Physics, 1-3.
https://www.nature.com/articles/s42254-024-00725-0
推薦理由:非綜述,但是很有趣的一項針對量子計算領域的科學學的工作,反應出在量子比特數量上去之后為什么還大量使用小數量比特的現象。
[31] Sun, W., Wei, F., Shao, Y., & Wei, Z. (2024). Sudden death of quantum advantage in correlation generations. Science Advances, 10(47), eadr5002.
https://www.science.org/doi/10.1126/sciadv.adr5002
推薦理由:非綜述,定量描述了某個量子優勢與噪聲的關系。
[32] Google Quantum AI and Collaborators. Quantum error correction below the surface code threshold. Nature (2024).
https://doi.org/10.1038/s41586-024-08449-y
推薦理由:谷歌在量子處理器Willow上實現糾錯碼,展示邏輯量子比特的錯誤率隨著碼距增大被指數壓制。
[33] Gidney, C., & Eker?, M. (2021). How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits. Quantum, 5, 433.
https://quantum-journal.org/papers/q-2021-04-15-433/
概述:分析了2048 bit RSA分解需要的時間和量子比特數量。
[34] Cai, Z., Babbush, R., Benjamin, S. C., Endo, S., Huggins, W. J., Li, Y., ... & O’Brien, T. E. (2023). Quantum error mitigation. Reviews of Modern Physics, 95(4), 045005.
https://journals.aps.org/rmp/abstract/10.1103/RevModPhys.95.045005
推薦理由:【綜述】量子錯誤緩解方面較新并且影響大的綜述,講述了QEM中各種方法之間的共性和局限性,如何根據存在的主要噪聲類型選擇緩解方法。
[35] Ebadi, Sepehr, et al. "Quantum optimization of maximum independent set using Rydberg atom arrays." Science 376.6598 (2022): 1209-1215.
https://www.science.org/doi/10.1126/science.abo6587
推薦理由:利用Rydberg原子的性質求解最大獨立集問題
[36] Wurtz, Jonathan, et al. "Industry applications of neutral-atom quantum computing solving independent set problems." arXiv preprint arXiv:2205.08500 (2022).
https://arxiv.org/abs/2205.08500
推薦理由:中性原子的求解圖相關的組合優化問題
[37] Rubin, Nicholas C., et al. "Quantum computation of stopping power for inertial fusion target design." Proceedings of the National Academy of Sciences 121.23 (2024): e2317772121.
https://www.pnas.org/doi/10.1073/pnas.2317772121
概述:應用于核聚變實驗中的量子算法
出品:漆遠、吳力波、張江 運營:孟晉宇、王婷 撰稿:張江、楊燕青、王婷、王朝會、十三維、周莉、梁金、袁冰、江千月、劉志毅 鳴謝(按姓氏拼音順序,排名不分先后): 曹風雷 、陳小楊 、程遠、杜沅豈 、段郁、方榯楷 、付彥偉、 高悅、黃柯鑫、李昊、劉圣超、譚偉敏、吳泰霖、吳艷玲、向紅軍、張驥、張艷、朱思語
AI+Science 讀書會
詳情請見:
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.