為了深入了解復雜的神經數據,我們必須轉向一種數據驅動的模式,用海量信息(數據)訓練大模型。為此,我們邀請了九位計算神經科學和神經數據分析領域的專家,分享他們的見解。
人們常說,大腦是宇宙中最復雜的物體。不論這一說法是否屬實,它都指出了一個不可否認的現實:神經數據極其復雜且難以分析。神經活動是依賴情境且動態變化的,它是一生中多感官交互和學習的結果;神經活動具有非線性和隨機的特征,這歸因于突觸傳遞和樹突處理的特性;神經活動是高維度的,它源于跨越不同大腦區域的眾多神經元;神經活動還是多樣化的,它記錄著多種不同的物種、回路和實驗任務。
這種復雜性帶來的實際結果是,如果在特定且高度受控的實驗設置下采集數據,并進行分析,其結果不太可能具有普適性(或泛化能力)。面對大腦這樣動態、非線性、隨機、高維的系統,我們不可能控制所有潛在相關的變量,那對這些數據進行訓練時,泛化失敗的可能性便會成倍增加。如今,我們正從刻意簡化的實驗走向更貼近真實情境的自然行為與刺激,這也意味著我們所要分析的系統維度在進一步擴大。
那么,我們如何避免開發出一系列與特定實驗環境掛鉤、彼此互不相干的模型,而在開發通用神經計算模型方面取得進展呢?我們認為關鍵在于擁抱神經數據的復雜性,而不是試圖回避它。要做到這一點,神經數據就需要由人工智能(AI)來分析。
艾娃·戴爾
Eva Dyer
佐治亞理工學院生物醫學工程副教授
領導著 NerDS 實驗室,該實驗室專注于數據為中心的人工智能、表示學習和科學 AI。她的實驗室開發計算方法,用于發現大腦組織和結構的原理,以及整合多模態數據集,揭示神經結構與功能之間的聯系。
克洛蒂婭·克羅帕斯
Blake Richards
麥吉爾大學計算機科學學院副教授
加拿大 CIFAR 人工智能主席,并是魁北克人工智能研究所 Mila 的核心學術成員。他的研究是神經科學和人工智能的交叉。他的實驗室研究適用于自然和人工智能體的通用智能原則。他主導制定了 2019 年發布的“神經科學深度學習框架”,該框架幫助塑造了神經科學界關于如何從基于目標函數、學習規則和電路架構的角度研究神經回路的討論。
慘痛的教訓
事實上,AI已經在分析和建模復雜、非線性數據方面發揮了極大作用。例如,2024年的諾貝爾化學獎就授予了AI研究人員,他們的模型幫助我們最終解決了預測蛋白質折疊的問題。這是一個類似的復雜分析任務,而傳統的建模技術在這方面未能取得重大進展。類似地,AI已在基因組學、氣候科學、流行病學等對海量數據要求極高、分析極其復雜的領域中展現了非凡潛力。對神經科學而言,已有初步跡象表明,AI似乎有望在各種棘手的分析任務中幫助我們更上一層樓。
然而,若要有效地將AI應用于神經數據分析,我們必須接受“慘痛的教訓”(the bitter lesson)。這個理念最早由強化學習先驅、AI 研究員Rich Sutton提出。他在2019年的一篇博客中指出,AI中最成功的方法往往足夠通用,能夠“隨著計算量的增加而持續擴展”。換句話說,那些為解決特定問題而精心設計的、定制化的解決方案,往往會輸給那些可以部署在互聯網規模數據(數萬億數據點)和大腦規模人工神經網絡(數萬億模型參數或“突觸權重”)上的通用解決方案。Sutton建議,我們需要認識到“心智的實質無比復雜;我們應該停止嘗試尋找簡單的方式來思考心智的內容,這就好比用簡單的模型概括宇宙、物體、多智能體或對稱性。”換句話說,要擁抱復雜性。
我們相信,“慘痛的教訓”也同樣適用于神經數據分析。首先,沒有任何理由認為神經數據會是AI各領域觀察到的普遍趨勢的例外。事實上,迄今為止的證據也說明神經數據分析符合AI應用的規律。其次,神經數據的復雜性恰恰說明,規模化能為它帶來極大益處。如果我們要擁抱神經數據的復雜性,并能泛化到新的情境,那么我們必須轉向一種數據驅動的模式,采用在海量數據上訓練的大型模型。事實上,有一種觀點認為我們無法從復雜的神經數據中提取有意義的信號,已經阻礙了神經科學研究實際應用的進展。而在這些數據上進行大規模訓練的AI模型,有可能解鎖我們甚至尚未完全設想的眾多下游應用。
?Arina Kokoreva
擁抱復雜性的愿景實踐
我們如何完全解鎖大腦數據的復雜性,并擴展我們對心智的理解?首先,我們需要能夠理解多模態數據集的模型,這些數據集應當結合了來自不同個體、任務甚至物種的電生理學、成像和行為數據。其次,我們需要基礎設施和計算資源來推動這一變革。正如AI的突破是由高性能計算推動的一樣,神經科學也必須投資于能夠處理大型通用模型訓練和微調的基礎設施。最后,規模化需要數據,大量的數據。我們需要跨越物種、大腦區域和實驗條件的大型、高質量數據集,并在自然的、非受控的環境中捕捉大腦動態,以充分反映大腦功能的豐富性和可變性。通過結合這三個要素——模型、計算和數據——我們可以擴展神經科學的規模,并揭示大腦功能的基本原理。
得益于國際大腦實驗室(International Brain Laboratory)、艾倫研究所(Allen Institute)和美國國立衛生研究院(U.S. National Institutes of Health)的 BRAIN 計劃(BRAIN Initiative)等項目,我們開始看到大規模數據集和開放數據存儲庫(如DANDI)的力量。這些努力正在為構建統一模型奠定基礎,并推動數據標準的制定,從而使數據共享和規模化成為可能。
神經數據的復雜性恰恰說明,規模化能為它帶來極大益處。
但我們目前仍未完成這一目標。太多的數據仍然被困在硬盤里,隱藏在各個實驗室中,既沒有對外共享,也未在原始用途以外得到充分探索。太多的模型仍然是小規模和定制化的。為了克服這一點,我們需要一個轉變,建立一種新的合作文化,并構建激勵機制來鼓勵數據共享及其潛在的變革力。我們相信,將大規模AI 模型應用于神經分析的前景,或許能成為激發變革的火花。我們向全領域發出呼吁:讓我們攜手努力,構建下一階段所需的共同基石:
(1)強大的全球數據檔案庫:我們需要繼續擴展共享的、開放訪問的存儲庫,以便匯集、標準化和擴展來自世界各地的神經數據。如此一來,我們可以極大地推動開發用于理解大腦功能、預測大腦狀態和解碼行為的強大AI工具。這不僅僅是呼吁數據共享,更是塑造神經科學未來的號召。然而,建立和維護如此龐大的檔案庫需要持續的經費投入。我們必須明確:由誰來承擔這些規模化數據存儲與管理的費用?
(2)專門用于在神經數據上訓練AI模型的大規模計算資源:大規模訓練AI模型需要使用大量的計算資源。在數萬億數據點上訓練一個擁有數十億或數萬億突觸連接的人工神經網絡,所需的GPU小時數,對于任何單個學術實驗室甚至研究機構來說都是高得令人望而卻步。正如天文學家等其他科學界為大型項目匯集資源一樣,神經科學家也需要找出聯合的方式,為我們面臨的任務創建所需的計算資源。
(3)專業的軟件開發人員和數據科學家:對于大多數神經科學實驗室來說,存儲、標準化、預處理以及分析數據的成本巨大。很多實驗室缺乏既精通技術又能投入大量時間的專職人員。此外,許多神經科學實驗室還在不斷地流入新數據,我們如何知道應該優先處理哪些數據以用于此類工作?再加上,構建大規模神經網絡需要一個懂得如何協同工作的專業工程師團隊,而不是一群各自使用自己定制的數據處理腳本的研究生。正因如此,我們需要專業的工程師和工作人員,他們能夠幫助簡化數據的標準化和存儲流程,并幫助大規模構建AI模型。
?多模態模型:要想讓努力成功,必須具備能夠理解混合了電生理學、成像和行為結果的數據庫。圖源:Danielle Ezzo
總之,在多樣化數據上訓練的大規模模型可以實現跨物種泛化,幫助我們理解大腦功能的更為保守、通用的原理。它們還可以促進跨任務學習,使研究人員能夠預測神經回路在新的情境下如何響應。應用范圍從基礎科學擴展到臨床和商業領域,在這些領域,規模化的模型可以改進腦機接口、心理健康監測以及神經系統疾病的個性化治療。
我們相信,這些益處值得我們為擴展共享神經科學琢磨出新的機制和策略。但研究人員對于如何最好地為神經數據尋求大規模AI方法,以及這種方法可能產生何種見解,存在分歧。與蛋白質折疊不同,匯集數據將需要一個由表面上獨立的研究人員組成的網絡,相關人員需要走到一起,為共同的愿景而努力。為了獲得該領域的不同觀點,我們邀請了九位計算神經科學和神經數據分析專家就以下問題發表看法。
關鍵問題:
1.大規模AI能為神經科學做些什么?
2.在嘗試創建“神經領域的AlphaFold”時,我們面臨哪些主要障礙?
3.規模化的局限性是什么?在哪些情形下更需要定制化的解決方案?
蓋爾·查普斯
Ga?lle Chapuis
國際腦實驗室(IBL)技術經理
IBL是一個由21個機構和75多人組成的全球聯盟,旨在研究大腦活動模式如何導致決策。Chapuis位于日內瓦大學,監督著一個分布在全球五個國家的工程師團隊。她的團隊為科學家提供支持,創建了專業化的工作流程,這些工作流程被大規模采用。她還監督聯盟的推廣工作。迄今為止,已有40多個在IBL內外進行的研究項目受益于這些技術和組織發展。
大規模人工智能為神經科學提供了變革性的潛力,但要實現這一愿景,關鍵在于克服重大的數據挑戰。這些挑戰涵蓋多個方面,從數據獲取和標準化到基礎設施和激勵機制等。一個根本性問題是,現行的學術獎勵體系更看重原創性發現,而不是整理和共享高質量數據集這項細致的工作。如果缺乏明確的激勵措施,神經科學領域許多龐大而復雜的數據將繼續處于孤立狀態、無法被充分利用或格式不統一,這使得跨研究整合這些數據變得困難。缺乏廣泛采用的數據共享標準,進一步加劇了構建基礎人工智能模型的難度,而這些模型依賴于整合來自多個來源的多樣化數據集。
為了在神經科學中充分利用人工智能,我們必須解決幾個關鍵問題。首先是數據的可及性,需要專門的外展活動、培訓和資源,確保可用數據集不僅可以成功發布,還能讓更廣泛的社群可以輕松發現和使用。如果沒有系統性的努力來推廣和維護共享存儲庫,寶貴的數據就有被忽視的風險。
其次,協調統一不同的數據集對于擴展人工智能模型的規模至關重要。在不同機構間統一數據格式和元數據,可以減少整合障礙,使研究人員能夠構建更穩健、更具泛化能力的人工智能系統。開發和實施這些標準的全球性努力,對于防止大規模項目中的碎片化和低效率至關重要。
第三,神經科學數據的復雜性和巨大體量要求我們具備高性能計算、多模態分析和高級可視化技術方面的專門知識。要管理好這些大型數據集,需要兩方面的持續投入:一是基礎設施;二是有能力應對人工智能驅動研究所帶來的技術挑戰的人員。
除了技術解決方案之外,為了支持長期的數據管理,結構和文化也需要有所轉變。資助機構和研究機構應優先投入資源用于持續的數據整理工作,為科學數據管理專家提供職業發展路徑,并制定認可和獎勵數據共享貢獻的政策。(要了解更多關于研究軟件工程師在學術神經科學中可以扮演的角色,請參閱《神經科學需要為軟件工程師提供職業發展道路》*。)推動基礎設施建設和標準化工作的協作,將是釋放人工智能在神經科學領域全部潛力的關鍵。
* https://www.thetransmitter.org/craft-and-careers/neuroscience-needs-a-career-path-for-software-engineers/
特倫斯·賽諾夫斯基
Terrence Sejnowski
索爾克生物研究所的弗朗西斯·克里克講座教授
領導著計算神經生物學實驗室,并且是Crick-Jacobs理論及計算生物學中心的主任。同時他也是加利福尼亞大學圣地亞哥分校的生物學教授,在那里他共同指導神經計算研究所和NSF學習時間動態中心。神經信息處理系統基金會主席,Neural Computation雜志的創始主編。作為計算神經科學的先驅,西喬夫斯基的目標是理解連接大腦和行為的原理。他的實驗室使用實驗和建模技術來研究突觸和神經元的生物物理特性以及大量神經元網絡的群體動力學。他在神經網絡和計算神經科學領域的研究具有開創性,他與杰弗里·辛頓共同發明了玻爾茲曼機。著有The Deep Learning Revolution,ChatGPT and the Future of AI: The Deep Language Revolution,合著有The Computational Brain。他與Barbara Oakley在Coursera上教授Learning How to Learn: Powerful mental tools,是世界上最受歡迎的在線課程。
傳統上,神經元是在離散任務的背景下被研究的,例如對視覺刺激的反應,此類實驗選用的刺激種類和反應形式有限,讓我們能夠相對輕松地對記錄數據加以解釋。但是,神經元能夠以多種不同的方式參與多種任務,因此如果我們僅根據單一任務得出的結論,往往會被其局限性所誤導。
現如今,我們可以同時記錄來自多個大腦區域的數萬個神經元,但神經科學家們仍在沿用那套“舊式”的單一任務范式。為突破這一瓶頸,有兩種解決思路:其一,訓練實驗動物完成多樣任務,但這對某些物種(如猴子)而言,單是學習一種新任務就要耗費數周到數月。其二,讓動物在更長時間內執行更復雜、更接近自然環境的任務。但在現實世界中,自然行為主要是自發產生和互動的。對于社會行為尤其如此。研究這類自發產生的、連續的行為,比研究嚴格受限的、反射性的任務要困難得多。例如,思考本身就是一種自發產生的行為。
如果一個大型語言模型(LLM)能在自然條件下,利用海量的大腦記錄以及伴隨的行為(包括身體和眼動追蹤、視頻、聲音及其他模態數據)進行訓練,結果會怎么樣呢?LLM是自監督的,可以通過預測跨數據流中缺失的數據段來進行訓練。從傳統的實驗角度來看,這可能不具有科學實用性,但它將徹底改變大腦的研究方式。不過,一旦感官輸入停止,LLM中的活動就會終止;它沒有自發產生的活動。另一個限制是所需的數據量,并非所有數據都能從單一個體收集。
探索替代方法的一個好起點是研究小規模的大腦。果蠅大約有10萬個神經元,可以在監測其行為的同時,通過對神經信號敏感的熒光染料發出的閃光來進行光學記錄。Ralph Greenspan和我收集了果蠅在自發行走時的近乎全腦的記錄。沖繩科學技術大學院大學(Okinawa Institute of Science and Technology)的 Gerald Pao 最近使用了一種基于動力系統理論的新方法,將這些記錄“下載”到一個生成模型中。這個名叫收斂交叉映射(Convergent Cross Mapping, CCM)的新方法,能夠提取記錄到的神經元與行為之間的因果關系。這種方法產生了一個簡化的圖形模型,賴捕捉控制行為的低維大腦軌跡。
訓練一個CCM行走果蠅模型只需要幾分鐘的同時神經和行為記錄。該模型的自發行為和神經活動與在真實行走果蠅中觀察到的幾乎無法區分。因為所需的數據量大大減少,來自單個大腦的多種行為可以被“下載”到同一個生成模型中。我們目前也在將CCM運用于在虛擬現實駕駛游戲中采集到的人類功能性核磁共振成像(fMRI)數據。這個生成模型將能夠在這個虛擬城鎮中駕駛并遞送包裹嗎?我們最終將能夠“竊聽”到人類自發產生的思維活動嗎?讓我們拭目以待吧!
?圖片:生成模型:將來自虛擬現實視頻游戲的人類功能性核磁共振成像(fMRI)數據轉化為時間序列,并使用收斂交叉映射(Convergent Cross Mapping, CCM)進行分析。該生成模型用于預測和生成類腦活動和行為。
Pao等人,《可實驗驗證的整體大腦流形重現行為》(Experimentally testable whole brain manifolds that recapitulate behavior),arXiv:2106.10627,2021年。
卡爾森·斯廷格
Carsen Stringer
霍華德·休斯醫學研究所詹妮婭研究基地研究組組長
實驗室使用機器學習和深度神經網絡來可視化大規模的神經記錄,研究皮質回路中的可塑性規則以及感覺和運動表示。此外,我們的實驗室還開發了用于細胞分割的通用算法,這些算法能夠快速準確地處理約50,000個神經元記錄。
正如Rich Sutton所描述的那樣,AI領域的大型“通用”模型,例如大語言模型(LLMs),需要用數萬億詞匯進行訓練(這比人類接觸的詞匯量高出幾個數量級),然后才能熟練掌握寫作等任務。這表明AI的訓練過程和學習規則與人類的學習方式截然不同。如果我們能弄清大腦中的一些學習規則和范式,我們或許就能縮短這些模型的訓練時間和減小它們的規模。更重要的是,這些見解可能有助于我們理解在神經系統疾病中學習過程是如何被打亂的。
然而,弄清神經學習規則并非易事。大腦是復雜的,神經活動是高維度的;例如,在小鼠和靈長類動物的皮層中,對視覺刺激的反應就跨越了數百個維度。這些眾多的維度只有在長時間獲取且涵蓋眾多神經元的數據集中才能得到充分的采樣。此外,為了推斷學習規則,我們需要在整個學習過程中收集這些數據集。基于這些數據集,我們可以擬合貫穿學習過程的模型,并研究模型權重如何隨學習而變化。
如果我們擬合一個非常大的模型,正如Dyer和Richards所提議的那樣,就會有許多權重可能發生變化,這使得識別學習規則變得具有挑戰性。一個大型的黑箱模型不太可能提供關于神經計算是如何執行的深入見解。這些中到大型的模型作為起點可能是必要的,因為它們通常更容易擬合且表現良好,但隨后可以通過權重剪枝、稀疏性懲罰或其他策略來減小這些模型的規模。較小的模型將更容易可視化,并且可能更好地對應大腦生理學,從而產生關于學習規則和神經回路架構的可檢驗假設。我們在神經科學領域的最終目標是理解大腦如何運作,而不是構建最佳的預測模型。因此,我們可能需要探索多種策略,而不僅僅是構建大型基礎類模型。
克洛蒂婭·克羅帕斯
Claudia Clopath
倫敦帝國學院計算神經科學教授
圣三一威康奈爾神經回路與行為研究中心的研究負責人。她開發數學模型來模擬突觸可塑性,并研究其在人工神經網絡中的功能意義。實驗室:https://cclopath.bg-research.cc.ic.ac.uk/
理解大腦是社會面臨的最緊迫挑戰之一,尤其隨著人口老齡化,延長大腦健康變得日益緊迫。然而,大腦的復雜性帶來了巨大的障礙。神經科學的進步使我們能夠記錄下比以往任何時候都更多的神經元活動,并將其與行為直接聯系起來,但我們迫切需要有助于解讀這些快速積累的數據的工具。
在這樣的背景下,研究界若能協力構建神經科學基礎模型,其前景令人激動。這類模型有望徹底改變該領域,且應用范圍廣泛,從實現跨物種和跨個體的見解轉化,到充分釋放腦機接口和個性化醫療的潛力。除此之外,基礎模型還可以顯著加速實驗研究。例如,它們可以用來預測實驗結果,使研究人員能夠在實際進行實驗之前就識別出哪些實驗最具有信息價值。這將節省時間并優化發現過程。
但擺在我們面前的挑戰也不容忽視。我們是否有足夠高質量且多樣化的數據來訓練這類模型?我們能否成功地整合多種神經數據模態,并以此方式提升模型的泛化能力?解決這些問題對于構建在不同情境下都穩健且實用的模型至關重要。
此外,神經科學模型不僅僅是用于預測的工具;它們還能幫助我們獲得關鍵的機制性見解。通過將基礎模型的可解釋性技術與能夠抓住觀測現象本質的簡化機制模型相結合,我們有望彌合數據驅動的預測與機制性理解之間的鴻溝。憑借這種預測和機制性洞見的雙重能力,基礎模型有望成為神經科學研究和應用的基石。
康納德·科爾丁
Konrad K?rding
賓夕法尼亞大學的神經科學教授
Neuromatch和嚴謹社區(Community for Rigor)的聯合創始人。他因在運動控制、神經數據方法和計算神經科學等領域的貢獻,以及他對開放科學和科學嚴謹性的倡導和貢獻而聞名。他的實驗工作涉及運動學習和運動控制,并將這些現象與貝葉斯思想聯系起來。最近,他專注于分析神經數據的方法和獲取大型神經數據集的方法。
作為一名神經科學家,我一生中最深刻的經歷之一,是在蘇黎世神經信息學研究所的地下室里,觀摩Kevan Martin進行的感受野映射實驗。當他在動物眼前移動明亮的條紋時,我能聽到一個神經元的活動聲音。只有當條紋處于正確的位置,即該神經元的感受野時,它才會活躍。從這類實驗中,誕生了一個關于視覺系統如何工作的模型:一組神經元提取線條,隨后一組提取曲線,再經過幾個步驟,最終一組神經元能夠識別物體。這種將大腦視為由分組到不同腦區的簡單、特化神經元集合的觀點,對整個領域和我個人都產生了深遠的影響,它不僅催生了神經科學的主流理論,也順帶促進了人工智能領域的發展。
然而,多年來,我們發現神經元并非是專門清晰地提取人類可理解特征的單元,而是糾纏在一個多功能、情境依賴的處理網絡中。神經編碼中那種最美好的簡潔圖景,那個神經科學邏輯的基石,已經破滅了。
這種對復雜性日益增長的認識,迫使我們重新思考如何理解神經數據。于是,人工智能登場了。AI出人意料地擅長描述高維度、異質性的神經數據,并解決工程問題,例如解碼失去說話能力的人的語音。在尋求理解的過程中,我們現在轉向AI,不僅視其為工具,更視其為一個框架。
但AI框架真的對理解有幫助嗎?與經典的機制模型不同,AI模型通常缺乏可解釋的結構,它們提供預測能力,但在概念清晰度上卻有所欠缺。有些人希望能通過使用AI模型提取可解釋的模型來挽救簡潔性,這種方法被稱為“蒸餾”。問題在于,這種簡單的解釋通常并不擅長描述真實世界的數據。這就使我們得出了一個不可避免的結論:簡潔性已死。當我們將AI作為指導原則時,我們必須捫心自問:如果大腦的解決方案不僅是復雜的,而且是根本上無法理解的,那該怎么辦?
伊爾·門明·帕克
Il Memming Park
葡萄牙Champalimaud未知中心組長
CATNIP實驗室研究員,研究興趣是神經科學和機器學習的交叉領域,特別是關于時間信息處理。旨在使用統計機器學習方法來分析神經數據,以理解認知算法(例如,用于決策或工作記憶的算法)。實驗室:https://catniplab.github.io/
訓練一個人工智能模型就像雕塑:我們從一塊璞玉開始,不斷雕琢,以揭示神經科學的潛在真理。對于具有許多自由度的大規模模型,這塊璞玉是巨大的,就像一塊多維度的大理石。實驗、觀察、數據集和理論就像是指令,用來剔除(或雕琢掉)不一致的部分;剩下的大理石(模型)的形態則由這些約束條件所決定。正如Eva Dyer和Blake Richards所倡導的那樣,為神經科學訓練大規模人工智能模型將需要前所未有的投資與合作。神經科學的進步當然需要這樣的投入,但讓我夜不能寐的是這些問題的不適定性(ill-posed nature):我們是否有足夠的約束條件來揭示由進化塑造的隱藏之美?
現代人工智能模型的優化方向是預測性能。如果建模是出于實用的目的,例如設計一個機械肢體,那么一個能夠泛化并預測觀察結果的巧妙模型就足夠了。在這種情況下,擁有10,000個表現同樣出色但本質上不同的解決方案并不重要。但如果目標是揭示大腦功能的機制,即創建其生物學實現的可解釋表示,那么即使預測性能很高,我們也可能需要多得多的約束條件。
近期人工智能在科學領域的成功,常常是為了下游的應用科學和工程,而用一個黑箱模型來繞過一個復雜的未解問題。但基礎科學,在此特指神經科學,要求更高。實現更深層次的理解,不僅需要擁抱大腦的復雜性,還需要收集新的、信息量極高的數據,以便進一步雕琢我們的模型。它甚至可能需要一類根本不同的人工智能模型。與其依賴當前架構這種“大理石”(雖然強大但可能流于表面),我們可能需要的是像“花崗巖”那樣的模型材料,它們雖然更難雕琢,卻能夠表達出我們試圖發現的循環動態機制。
路易斯·佩索阿
Luiz Pessoa
馬里蘭大學帕克分校的心理學教授
馬里蘭神經影像中心主任,研究興趣集中在研究大腦中情緒、動機和認知的相互作用。他還對神經科學的概念和哲學基礎感興趣。著有The Cognitive-Emotional Brain: From Interactions to Integratio,The Entangled Brain: How Perception, Cognition, and Emotion Are Woven Together。
Dyer和 Richards的行動呼吁值得我們大力支持和審慎考量。他們主張擁抱大腦內在復雜性的論點,與我們將大腦視為一個深度交互系統的理解十分契合。關鍵在于如何將這一愿景付諸實踐。
我建議把對“大腦復雜性”的關注再向前推進一步。的確,如Dyer和Richards所說,大腦是一個非穩態、非線性、隨機且高維度的生物系統,但這同時也給其所提出的“借助人工智能前行”帶來了更深層次的挑戰。
如果我們接受大腦的運作方式在根本上是情境依賴的,甚至是極度依賴的,那么要捕捉有意義的原理,就需要從一個極其廣闊的可能狀態和計算空間中進行采樣。這無疑對任何大規模建模方法都提出了概念與實踐的雙重考驗。
第一,當前的實驗室范式未能充分捕捉在自然環境中觀察到的豐富動態。盡管 Dyer和Richards承認了這一點,但我想更進一步指出:我們不僅需要在復雜生態環境中,記錄動物自由活動及典型的社會互動(包括合作和競爭)的數據,此外,環境本身必須足夠復雜,這樣才能反映真實世界動態的有意義的動物-環境雙向互動。
第二,多物種數據集的解讀更是難點重重。在一個非穩態、非線性、隨機、高維度的系統中,我們應當預期在組織結構和功能兩方面都存在顯著的物種差異。嚙齒類和靈長類動物大腦在微觀、介觀和宏觀尺度上的結構差異,很可能導致有意義的功能分化。這并未降低比較研究的價值,反而要求我們在理論框架和建模方法中明確地將這些差異考慮在內。
如果神經科學界能在擁抱Dyer和Richards愿景的同時,審慎地應對這些挑戰,那么我們在理解大腦功能和行為方面可能正邁入一個極其富有成效的時代。
穗雅·薩克森那
Shreya Saxena
耶魯大學吳氏神經科學研究所神經計算與機器智能中心的助理教授
她曾擔任佛羅里達大學電氣與計算機工程系的助理教授。在哥倫比亞大學祖克曼心智、大腦與行為研究所的理論神經科學中心的博士后研究期間,她開發了用于解釋性建模神經和行為數據的機器學習方法。
利用人工智能理解神經功能,正迅速成為計算神經科學和系統神經科學的一個核心組成部分。實驗科學家們深情凝視每一條來之不易的單神經元記錄的日子已經一去不復返了。神經數據已經變得龐雜而復雜,對這些數據進行建模,需要能適應規模擴張的計算方法。大規模人工智能或許正好能為許多研究人員面臨的問題提供解決方案。
但是,正如Dyer和 Richards所強調的,神經科學向大規模人工智能的轉型并非沒有挑戰,這包括適用于神經科學特定模型的數據可及性和標準化問題,以及實現這些目標所需的數據工程和計算資源。此外,在神經科學這樣一個廣闊且多樣化的領域,通常每年有多達25,000人參加神經科學學會年會,想要就最適合大規模AI解決的關鍵問題達成共識,依舊面臨著巨大挑戰。
神經科學長期以來一直依賴于一次只針對少數幾個實驗的定制化模型(通常是在實驗與計算配對的合作中)。團隊科學的出現已開始將計算推向核心地位,并以一種中心輻射型(hub-and-spoke)模式連接起更大規模實驗者群體之間的合作,從而更有效地解決更廣泛的問題。大規模人工智能有潛力加速這一進程,但并非所有研究領域都能同等受益。神經科學前沿的許多問題依賴于新穎的記錄技術或獨特的實驗范式,這些技術和范式本身會產生小規模、充滿噪聲的數據集,而這類數據集可能不太適合預訓練的人工智能模型。
與單憑龐大數據量就能驅動模型成功的文本人工智能不同,神經科學或許能從結構生物學知識中受益。為了在“小數據”情境下有效地建模神經系統,人工智能模型有潛力整合解剖學和生理學上的約束條件,例如已知的腦區間連接性和神經動力學原理。將大規模人工智能與神經科學知識相結合的混合方法,對于獲得可解釋且具有生物學意義的結果可能至關重要。最后,這些模型可以與實驗者形成閉環操作,指導神經調控和驗證實驗,從而推動科學發現和醫療健康應用的發展。
我們正處在一個人工智能新時代的門檻上,在這個時代,大規模模型正變得越來越容易獲取,并深度融入日常生活。促進神經科學計算方法的多樣性,包括投資于大規模人工智能的使用,對于確保我們不錯過下一個重大的神經科學突破至關重要。
大衛·薩斯羅
David Sussillo
Meta現實實驗室高級研究科學家
斯坦福大學的兼職教授,師從Larry Abbott,開展了關于混沌遞歸神經網絡中學習的研究。他的研究跨越了神經科學、機器學習和動力系統之間的交叉領域,專注于通過種群動力學視角來理解神經計算。他的貢獻包括關于前額葉皮層中依賴上下文的計算、腦機接口以及開發分析人工神經網絡的新方法。
Dyer和Richards有力地論證了神經科學必須通過大規模方法來擁抱大腦的全部復雜性。他們關于共享基礎設施、計算資源和專業工程團隊以處理海量神經數據集的呼吁,既及時又重要。但是,他們對利用人工智能來分析神經數據的強調,留下了一個關鍵的空白:理解大腦如何進行計算這一根本目標。
他們正確地指出,神經活動是情境依賴的、非線性的和高維度的。傳統的還原論方法,雖然對于理解基本機制很有價值,但無法捕捉從神經元網絡中涌現出的計算。但將AI視為解決方案就會有黑箱的風險。作為分析工具,AI能在應用中找到有效模式,卻無法提供對神經計算基本原理的深入見解。
一個更具建設性的方法是將這些人工神經網絡用作大腦功能的可解釋模型。通過在神經數據上訓練這些網絡,并讓它們執行與生物回路相同的任務,我們可以創建出神經系統的簡化但功能性的模擬體(或對應物)。關鍵的下一步是:對這些訓練好的網絡進行逆向工程,以理解它們如何解決計算問題。這種模型構建和系統化分析的過程,能夠產生關于真實大腦如何進行計算的可檢驗假設。
他們援引了的“慘痛教訓”,即在AI領域,規模化的通用方法往往優于精心設計的定制化解決方案。這一原則當然適用于神經數據的建模:在更多數據上訓練的更大型網絡,將比手工構建的模型產生更好的預測結果。但理解神經回路如何進行計算,則需要一種根本不同的方法。迄今為止,我們還沒有衡量科學洞察力的優化指標。通往理解的道路,需要人類的創造力和對我們大規模模型的嚴謹分析,而不僅僅是擴大模型的規模。我們需要用于理解網絡動力學的理論框架、識別計算基序(computational motifs)的方法,以及將人工網絡解決方案與生物機制聯系起來的途徑。
您認為大規模人工智能將如何惠及神經科學?歡迎在下方留言評論。
原文鏈接:https://doi.org/10.53053/ORXM6480
關于追問nextquestion
天橋腦科學研究院旗下科學媒體,旨在以科學追問為紐帶,深入探究人工智能與人類智能相互融合與促進,不斷探索科學的邊界。如果您有進一步想要討論的內容,歡迎評論區留言,或后臺留言“社群”即可加入社群與我們互動。
關于天橋腦科學研究院
天橋腦科學研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元創建的世界最大私人腦科學研究機構之一,圍繞全球化、跨學科和青年科學家三大重點,支持腦科學研究,造福人類。
Chen Institute與華山醫院、上海市精神衛生中心設立了應用神經技術前沿實驗室、人工智能與精神健康前沿實驗室;與加州理工學院合作成立了加州理工天橋神經科學研究院。
Chen Institute建成了支持腦科學和人工智能領域研究的生態系統,項目遍布歐美、亞洲和大洋洲,包括、、、科研型臨床醫生獎勵計劃、、等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.