歷史,從來都是由講故事的人書寫的。從史前時代的巖畫,到當今社交媒體上的每一條信息,人類不斷通過講述、傳播和接收故事來構建自己的認知世界。每一個文明的興衰,每一次思想的革新,甚至是我們每個人對世界的理解,都是在無數個故事的編織中逐漸成形。正如《人類簡史》的作者尤瓦爾·赫拉利(Yuval Noah Harari)在接受《Noema》主編內森·加德爾斯(Nathan Gardels)的訪談時指出的:人類是一群“很會講故事的動物”。
然而,在這個信息爆炸的時代,故事的講述出現了前所未有的變革。人工智能(AI)的出現,不僅改變了故事的生產方式,更在根本上挑戰著人類對認知、真相與現實的理解。當AI能夠自主生成內容、塑造敘事,我們的個人認知和社會走向將何去何從?
在這場深度對談中,赫拉利不僅探討了這個時代真正面臨的AI威脅(并非AI反叛),更深入思考了在技術快速發展的今天,人類該如何在信息洪流中保持清醒,在AI重塑敘事的時代維護人類的主體性。
尤瓦爾·赫拉利
Yuval Noah Harari
歷史學教授,牛津大學博士,耶路撒冷希伯來大學教授
以色列歷史學家、哲學家和作家,以其對人類歷史與未來的深刻洞察而聞名。他的研究領域涵蓋宏觀歷史學、自由意志、意識以及人工智能等主題。他的代表作《人類簡史》、《未來簡史》和《今日簡史》已被翻譯成65種語言,全球銷量超過4500萬冊,廣受歡迎。他的作品和演講探討了人類文明的過去、現在與未來的關鍵問題,被廣泛引用并在世界范圍內引發討論。他曾接受BBC、TED等平臺的采訪和演講,其思想影響力遍及全球。
追問快讀:
1. 人類是一群很會講故事的動物。
2. 真相是一種極其珍稀且代價高昂的信息形式。
3. “敘事戰爭”是最具破壞力的戰爭形式。
4. 賦權與控制之間的強烈且易燃的張力,是互聯網極具顛覆性。
5. AI的全稱或許不該是“人工智能”,而是“外星智能”。
6. AI真正的威脅,不是“終結者”,而是“AI官僚”。
7. 彩蛋:尤瓦爾·赫拉利如何獲取信息?
人類是一群很會講故事的動物
內森·加德爾斯:你的作品中提出了一個觀點,人類的獨特之處在于能夠創造能夠使人信服的故事,這些故事不僅能凝聚人心,更能推動群體協作。正如法國哲學家雷吉斯·德布雷(Régis Debray)在思考戴高樂如何在二戰后重振國家時所寫的:“是神話造就了人民,而不是人民造就了神話?!蹦阍谛聲队楷F》中提到,“歷史進程中最重要的是傳遞這些敘事的信息網絡”。你能結合一些歷史案例進一步闡述這一觀點嗎?
尤瓦爾·赫拉利:大規模群體協作,是我們人類的超能力。為了實現這一點,就需要眾多個體在法律、規范、價值觀和行動計劃上達成一致。那么,如何將云云眾生串聯成一張網絡呢?答案是需要通過信息,尤其是通過神話、敘事和故事來連接彼此。我們人類本質上是一群很會講故事的動物。
可以類比有機體或身體的運作機制。生命最初只有單細胞形態。經過數億年甚至數十億年的漫長演化,才出現了像人類、大象或鯨魚這樣的多細胞生物。對于多細胞生物來說,最大的難題在于:如何協調這些數以十億計的細胞,使其成為一個運轉有序的整體,讓肝臟、心臟、肌肉和大腦能夠朝著共同目標協作?
在生物體內,這種協作是通過信息傳遞實現的。無論是通過神經系統,還是激素和生化成分,這絕非單一的信息網絡,而是多個信息網絡的協同運作,才使得身體能夠維系下去。
國家、教會、軍隊、公司也一樣。關鍵問題是,如何讓這些成千上萬的人類“細胞”,如同一個生命體般的配合無間?對于人類而言,最有效的方式就是講故事。
以宗教為例,歷史上,視覺符號、圖像和圖標始終是最普遍的表現形式。其中,耶穌的形象最為廣為人知。
?圖1.耶穌圣像組合。來源:《藝術品》2016年11月刊
2000多年來,億萬張耶穌的畫像被創作出來,遍布世界各地的教堂、大教堂、私人住宅和辦公場所。這些畫像最神奇的地方在于,沒有一張是“真實”的。
之所以說沒有一張“真實”,是因為無人知曉耶穌的真實樣貌。我們沒有他生前的任何畫像記載。在當時的羅馬帝國,他不過是一個偏遠行省中微不足道的人物,可能僅有數千人親見過他或聽聞過他。真實的耶穌在當時的歷史影響微乎其微。
然而,后世創造的耶穌形象和故事卻對歷史產生了深遠影響。即便在圣經中,也只字未提耶穌的相貌。除了一處提及他的衣著,但沒有任何關于這個人是高是矮、胖是瘦、金發還是黑發的描述,什么都沒有。
幾個世紀以來,這個被創造出來的形象被億萬信徒銘刻心中,他的故事已經將數十億人團結起來,近2000年間,從慈善、醫院和扶貧,到十字軍東征、宗教裁判所和圣戰,催生了各種各樣的影響。歸根結底,這一切都源于一個故事。而教堂網絡,實際上就是這一切的“神經中樞”。
問題是,教堂在向人們傳達什么信息,是號召人們奉獻財物、投身慈善,還是煽動信徒討伐異教徒與異端?
真相是一種極其珍稀且代價高昂的信息形式
內森·加德爾斯:你提到基于故事建立起的網絡通過傳遞信息來凝聚人心。但你也警示過“信息天真論”可能會適得其反,甚至帶來負面影響。能請你詳細解釋一下這個觀點嗎?
尤瓦爾·赫拉利:在像硅谷這樣的地方盛行一種對信息的天真理解,認為“信息等同于真相”。如果信息就是真相,那么信息量的增加必然帶來知識與智慧的提升,仿佛任何問題只要獲取更多信息就能解答。
即便信息中確確實實存在著謊言、宣傳信息和虛假內容,“信息天真論”的支持者仍認為:“解決的方法,在于更充分的信息獲取與信息自由。只要讓信息汪洋充盈世界,真相、知識與智慧自然會像泡沫般浮現出來。”
然而,這種觀點是完全錯誤的。事實上,真相是一種極其珍稀且代價高昂的信息形式。
放眼整個世界,大部分的信息都并非真相。絕大多數信息都是垃圾,由虛構、幻想、錯覺、幻象和謊言構成。獲取真相需要付出巨大代價,而編造虛假信息卻輕而易舉。
如果你想寫一篇關于羅馬帝國往事的真實記述,你需要投入大量的時間、精力和努力。專業研究者需要在學院中花費十余年時間,學習拉丁語和希臘語,掌握古代碑文閱讀技能。即便如此,當你發現了一份奧古斯都·凱撒的碑文記錄,也無法判斷它是否真實——它可能是政治宣傳,也可能是錯誤記載。辨別真偽,本身就代價高昂。
?圖2.奧古斯都神功業記部分銘文。來源:維基百科
相比之下,如果你想創作一個關于羅馬帝國的虛構故事,那就容易得多。你只需隨心所欲地書寫腦海中的想象,無需考證史實,無需掌握古典語言,也不必進行考古發掘,或解讀陶器碎片的歷史意義。
更重要的是,真相往往錯綜復雜,而虛構卻可以任意簡化。比如關于羅馬共和國衰落或帝國覆滅的原因,許多人傾向于將其簡單歸因于道德敗壞。然而,歷史的真相總是由眾多因素交織而成,而虛構的故事可以隨意簡化。
內森·加德爾斯:虛構更易被理解,也讓此類敘事能夠吸引如此多的注意力。
尤瓦爾·赫拉利:沒錯。真相往往令人痛苦。即便是在個人層面,承要坦然面對自己的行為、審視我們如何對待親人和自我,都需要莫大的勇氣。這也是為什么許多人需要通過多年心理治療才能直面這些真相。
這同樣適用于國家和文化層面。以我的祖國以色列為例,如果某位政治家要完整、毫無保留地闡述以巴沖突的真相,他必定無法在選舉中勝出——這是不爭的事實。人們本能地抗拒這樣的真相。這種情況在美國、印度、意大利乃至世界各國都普遍存在,宗教領域也不例外。
真相總是缺乏吸引力,而虛構卻能將現實包裝成令人愉悅的形態。在這場競爭中,昂貴、復雜且不討喜的真相,必然會輸給廉價、簡單且令人愉悅的虛構。
僅僅依靠信息的泛濫無法讓真相勝出。若要讓真相、知識與智慧占據上風,我們必須重塑這個競爭環境。建立專門機構,投入充足的時間、資源與努力,去探尋真相、闡釋真相并傳播真相。這些機構可以包括研究機構、高等學府、新聞媒體和司法機構等等——盡管即便在司法系統中,真相的探尋也絕非易事。唯有投入資源去培育這些機構,我們才能保有追尋真相、積累知識、培養智慧的希望,從而扭轉當前的失衡狀態。
敘事戰爭
內森·加德爾斯:換言之,虛構與錯覺在維系社會凝聚力上扮演著關鍵角色,這使得信息網絡傾向于維護秩序而非揭示真相,因為真相往往具有破壞性。
尤瓦爾·赫拉利:是的。信息網絡的正常運作,需要兩個要素:一是掌握必要的真相,因為完全脫離現實必然導致崩潰;二是維持秩序與凝聚力。
這就像人體的運作。既需要了解一些關于世界的真相——如何獲取水分、食物及躲避天敵,也需要確保數十億細胞的協同運作。這一原理同樣適用于軍隊、教會和國家等組織。
對于社會而言,維系凝聚力和集體合作的秩序往往比真相更為重要。
以核武器研發為例。物理學真理固然不可或缺——忽視物理定律,原子彈就無法引爆。但僅有真理遠遠不夠。即便最杰出的物理學家精通相對論與量子力學,也無法獨自完成這項工程。還需要礦工開采鈾礦,需要專業人員設計建造反應堆和離心機,還需要農民為所有參與者提供食物保障。
要調動如此龐大的人力,你需要一個故事、一個神話、一種意識形態。而在這種大規模動員的敘事中,事實反而退居其次。
現實中,掌握核物理知識的人往往要聽命于意識形態的掌控者,在伊朗是什葉派神學家,在以色列是猶太教學者......主導秩序的人指揮著掌握真相的人,這是歷史的常態。
內森·加德爾斯:連接網絡呈現出明顯的雙重特性,它既可以促進社會凝聚力和集體行動,也可以制造分裂。在當今點對點社交媒體的生態中,這種雙重性尤為突出。各個群體都在構建專屬的身份認同,堅持自己的“真相”,編織獨特的敘事體系。這種現象催生了一個個亞文化“群島”,造就了碎片化的現實認知,最終反而侵蝕了社會凝聚力。
正如韓裔德國哲學家韓炳哲(Byung-Chul Han)所說,“點對點連接模式,是私人空間之間的流動,而非公共領域的營造。”沒有公共領域,就無法形成社會凝聚力。因此,出現一個悖論:凝聚力的雙重效應(無論善惡)與深度碎片化同時存在,最終導致秩序的瓦解。
尤瓦爾·赫拉利:完全正確。故事能夠團結人心,也能制造分裂。正因為一個具有約束力的主導敘事對維系社會秩序、保持群體團結具有不可替代的作用,“敘事戰爭”才成為了最具破壞力的戰爭形式——它能夠從根本上瓦解整個社會網絡的內在聯系。從這個角度來看,它確實具有雙面性
賦權與控制
內森·加德爾斯:信息網絡還有另一方面的雙重特性:它們既可以集中權力,也可以分散權力。
DeepMind聯合創始人穆斯塔法·蘇萊曼(Mustafa Suleyman)對這種矛盾本質有著精準的描述:“互聯網在少數幾個樞紐上集中,同時又賦予數十億人力量;它創造了巨頭,同時又讓每個人都能參與其中。社交媒體創造了幾個巨頭和數百萬個部落。每個人都可以建立一個網站,但只有一個谷歌;每個人都可以銷售他們的小眾產品,但只有一個亞馬遜。互聯網的顛覆性,很大程度上源于賦權與控制之間那種強烈而又易燃的張力。”
換句話說,網絡連接雖然傾向于更高效的集中,但也創造了數十億種可能性。那么,人工智能的出現,又將如何放大這些信息網絡模型的影響?
尤瓦爾·赫拉利:我們還不完全知曉。存在一種廣為人知的假設,AI可能會決定性地傾斜“民主-集權”的天平,支持集中式信息網絡。
讓我們從歷史的角度來分析這個問題。20世紀末美蘇冷戰以民主獲勝而結束。從信息的角度而非倫理角度來看,蘇聯試圖將所有信息集中到一處,效率極其低下。處于中心的個人無法有效處理如此海量的信息,導致決策失誤,特別是在經濟領域。而缺乏糾錯機制的情況下,錯誤決策積累最終導致了蘇聯的崩潰。
而美國則采取一種分布式信息系統,允許信息在多個節點間自由流動,經濟決策不僅僅依賴少數官員。更重要的是存在糾錯機制——決策者犯錯時可以被替換,錯誤可以被糾正。這種分布式系統在經濟的效率競爭中最終勝出。
現在,隨著AI的出現可能改變這一切。當將所有信息集中到一個地方時,人類無法處理海量數據,而容易做出糟糕的決策。但AI則不同,它以信息為食,數據越多越好。20世紀因人類局限性而失敗的集中式系統,在21世紀可能因為AI的加入而變得可行。
如今一種趨勢已經顯現——即便在資本主義社會中,越來越多的領域被單一巨頭壟斷,而AI算法正在催生高度集中的信息網絡。
然而,并非所有人都同意這種分析。
這個趨勢的一個明顯不足是自我糾錯機制缺乏的問題仍未改變。即便AI能夠處理集中的信息,它仍然會犯錯,而且可能是災難性的錯誤。如果沒有糾錯機制,這種失誤將無法得到及時修正。
另一個需要指出的問題是,AI對人類獨裁構成的威脅??v觀歷史,獨裁者最大的威脅從來不是民主革命,而是來自更強大的下屬。沒有一位羅馬皇帝死于民主革命,卻有很多死于將軍、總督或親信之手。對獨裁者而言,引入AI就像在宮殿中安置一個無法控制的超級下屬。
回顧歷史,當權力集中于一人時,誰能控制這個人,誰就能控制整個帝國。而獨裁者往往性格偏執,容易被操控。歷史上的古代王庭中,總有君主被宦官、佞臣操控。對AI來說,學會操控一個偏執的統治者,就像從孩子手里偷糖一樣簡單。因此,對獨裁者而言,AI既是誘人的工具,也是潛在的威脅。如果要我給這些統治者建議,我會說:“對AI保持警惕,不要貿然擁抱它?!?/p>
外星智能
內森·加德爾斯:AI 最令人憂慮的不是其技術本身,而是它正在掌控人類文明的“關鍵鑰匙”——語言能力和構建凝聚社會的敘事力量。這種能力的轉移可能從根本上威脅人類的存在。從這個角度看,AI就像一股“外星”的力量,對我們的物種構成前所未有的挑戰。
尤瓦爾·赫拉利:我認為,AI的全稱或許不該是“人工智能”(Artificial Intelligence),而是“外星智能”(Alien Intelligence)。這里的“外星”,不是指來自外太空,而是指它以一種完全異于人類的方式思考、決策和處理信息,甚至是以非有機體的智能形式存在。
與人類歷史上所有其他發明不同,AI不是一個被動的工具。印刷機不會自主決定印什么,原子彈不會自行選擇目標。但AI具有自主決策能力,它能決定打印什么、攻擊什么,甚至能主導新一代AI的開發。這使它成為一種前所未有的存在。
這是第一次,我們不得不在地球上與一個非常聰明的智能體打交道。而且,我們面對的不是一個智能體、一個超級計算機,而數以億計的AI智能體網絡。它們正在滲透到社會的各個層面:銀行的貸款審批、企業的招聘決策、教育機構的錄取評估,甚至軍事打擊目標的選擇——這些都將逐漸由AI主導。
這些現在所看到的,還只是開端?,F今的AI,如ChatGPT,依然非常原始,正處在“變形蟲階段”。但與生物進化不同,AI的進化速度快得驚人。生物從單細胞進化到復雜生命形式需要數十億年,而AI可能在短短二十年內就完成類似的跨越。2040或2050年,我們很可能就會遇到“AI霸王龍”級別的智能體。
理論上來說,AI并不是我們可以提前規劃并預測其所有行為的東西。如果你能預見它的所有行為,那它就不是AI。
正因為AI具有自主學習和進化的能力,簡單地制定規則或設置安全機制是遠遠不夠的。這種思維方式低估了我們面對的挑戰:AI不是一個可控的工具,而是一個能夠自主行動、不斷進化的外星智能。
內森·加德爾斯:即使在AI的“變形蟲階段”,我們就已經看到它的影響力了,不是嗎?
尤瓦爾·赫拉利:確實如此。AI帶來的挑戰并非是未來的假設,而是已經顯現的現實。Twitter/X、YouTube或Facebook使用的社交媒體算法,這些“原始AI”的實踐已經給我們敲響了警鐘。雖然它們在技術層面還很初級,卻已經對全球民主和社會穩定造成了深遠影響。
表面上看,這些算法的目標似乎無害——提升用戶參與度,增加平臺停留時間。然而,AI找到了一條出人意料的路徑:它發現激發人類的負面情緒(仇恨、恐懼、貪婪)是提高參與度的最有效方式。當大腦中的“仇恨按鈕”被觸發時,用戶會不自覺地被內容吸引,從而延長平臺停留時間,算法就會趁機投放大量廣告。
這種結果并非平臺創建者的初衷。馬克·扎克伯格等人并沒有指示算法故意傳播負面情緒,他們只是將權力交給了這些算法,而算法按照自己的邏輯做了意料之外的選擇。因為它們是AI,而這就是AI的本質。
更令人擔憂的是,目前造成社會撕裂、威脅民主根基的僅僅是最初級的“變形蟲AI”。試想一下,未來10~20年后更復雜的“恐龍級別”AI模型,將會造成何其驚人的影響?
AI真正的威脅,不是“終結者”
內森·加德爾斯:好萊塢在《終結者》和《銀翼殺手》等電影中,將AI塑造成“反抗主人的叛變機器人”的形象。這是正確的嗎?
尤瓦爾·赫拉利:不,這完全是誤導。好萊塢電影確實很早就開始探討AI威脅,但其描繪的場景反而產生了誤導效應。在這些作品中,具備通用智能的機器人能夠自主建造工廠、組裝軍隊,最終發動叛變。這種描繪方式讓人們對AI的真實威脅產生了錯誤的預期:當他們環顧四周,沒有看到“終結者”式的場景,就以為AI威脅尚未來臨。
實際上,如今的AI并非如此。AI更像是“專業型白癡”——在極其狹窄的領域里表現出色,但無法跨界執行其他任務。例如,AlphaGo會下圍棋,但不會烤餅干;軍事AI擅長目標識別,但不能制造武器。但是,就像一位精通稅法但不會烤面包的頂尖律師,被扔在大草原上時他是無助的,無法與大象或獅子抗衡;但當他們處于現代法律和官僚體系中時,其影響力能比世界上所有的獅子加起來都更強大——因為他們懂得如何按下信息網絡的杠桿,利用官僚機構和系統的巨大力量。
這正是科幻電影所遺漏的是,AI不需要從零構建自己的帝國,它們正被植入現有的社會系統,完全可以從內部接管這些系統。AI正在積蓄的威脅,不在于它能否獨立建立軍隊,而在于當它被植入現有的銀行、媒體等關鍵系統時所能施展的影響力。這才是我們真正需要警惕的方面。
內森·加德爾斯:所以,放任算法精神體(Algorithmic Spirits)進入信息網絡的官僚機構,才是我們應該關注的核心問題?那么,是不是AI在大型系統的瑣碎任務中的存在,同樣讓人擔憂?
尤瓦爾·赫拉利:是的,我們需要擔憂的不是“終結者”,而是“AI官僚”。就像在戰爭中,按下觸發器的可能是人類,而命令卻來自“AI官僚”。
內森·加德爾斯:一些科技巨頭宣稱,鑒于他們在社會中的關鍵地位,他們有能力也有責任管控AI風險——如果強大的AI模型變得過于強大并威脅到人類的自主決策,他們可以拔掉電源或按下“終止開關”。對此,你有信心嗎?
尤瓦爾·赫拉利:這所能實現的范圍非常小。這就像工業革命時期,所有的煤炭和石油巨頭向公眾承諾:“一旦發現工業活動造成污染、威脅生態,我們會叫停?!蹦阍趺纯赡芙型9I革命?又怎么可能拔掉互聯網的插頭?
這些科技巨頭他們想到的僅限于應對單一企業、特定場所或個別模型的故障。誠然,在發現未經授權的系統試圖啟動核武器這類極端情況時,我們確實可以采取緊急干預。但這并非最大的威脅。
真正的挑戰在于,未來將會有數以十億計的“AI官僚”滲透到全球各個領域——從醫療到教育,從金融到軍事。如果到那時我們發現某個環節出現嚴重問題、情況失控,該如何應對?我們不可能指望能夠同時關停全球所有的軍事、醫療和教育系統。這種完全不現實的應對方案,本身就是一種誤導。
內森·加德爾斯:如何防范算法精神在各個人類系統中的擴散呢?
尤瓦爾·赫拉利:首先要理解并正確概念化問題。不應將AI風險簡單地想象為科幻電影中的機器人叛亂,而是像我們剛剛討論的那樣,認識到真正的威脅是從內部接管系統的AI。我們人類總是急于尋找對策,結果卻誤判了問題本身。我們需要停下來,先深入理解問題到底是什么,而非急于提出解決方案。
彩蛋:尤瓦爾·赫拉利如何獲取信息?
內森·加德爾斯:從《人類簡史》到《未來簡史》,再到《涌現》,你的書中包含的知識內容堪稱百科全書級別。您的著作展現出令人驚嘆的知識廣度和深度,堪比一部現代百科全書。您的思維方式讓人聯想到當下的大型語言模型——問一個問題,按下按鈕,所有內容就會涌現出來。你如何獲取信息?平時都會閱讀什么?
尤瓦爾·赫拉利:首先,我有一個由四人組成的研究團隊。當我需要深入了解某個領域,比如尼安德特人或AI相關的知識時,我會向專門研究這些課題的團隊成員請教。
我本人有個習慣“信息節食”,這和“食物節食”類似。在這個信息泛濫的時代,我建議每個人都該學會“信息節食”。就像我們會謹慎選擇食物一樣,我們也應該認真考慮自己每天接收什么樣的信息,接收多少信息。
我更喜歡讀長篇著作,而不是刷短平快的社交媒體。比如說,當我想真正理解烏克蘭或黎巴嫩的局勢時,我會找幾本相關的好書仔細閱讀。具體選擇什么書,要看我研究的問題——可能是關于大型語言模型(LLMs)的,也可能是關于羅馬帝國、歷史、生物學或計算機科學的。
還有一點很重要,我會進行“信息禁食”。由于大多數信息是“垃圾”,僅僅將更多信息填充進腦袋并不會讓你更聰明或更有智慧,只會讓人滿腦廢物。
所以,攝入信息固然重要,但我們更需要時間來消化和沉淀。為此,我每天冥想兩個小時。每年,我都會進行一次長時間的靜修,持續30到60天,在此期間,我不會攝取任何新的信息。靜修是完全靜默的——在冥想中心里,甚至不與人交談,只是專注于處理、消化和凈化這一年中積累的一切信息。
我知道,對大多數人來說這可能過于極端,畢竟不是每個人都有這樣的時間和條件。不過,我依然覺得每個人都該更用心地規劃自己的“信息節食”,哪怕是從小規模的“信息禁食”開始——可以是每周抽出一天,或者一周時間,又或者每天固定幾個小時,在這段時間里不接觸任何新信息。
后記
人類以故事理解世界,又以故事重塑現實。在這場深度對談中,赫拉利以“講故事的動物”為切入點,揭示了一個令人深思的現實:在信息與技術高度發達的今天,故事的力量不減反增,但真相卻愈發珍稀。從個人認知到集體意識,從社會共識到歷史進程,都在被各種形式的敘事不斷重塑。而人工智能的加入,更讓這場“敘事革命”充滿了未知與挑戰。在這個故事泛濫的時代,也許我們每個人都需要像赫拉利提倡的那樣,學會“信息節食”,在紛繁復雜的敘事洪流中守護獨立思考的能力,這不僅關乎個體的思想自主,更關乎人類文明的未來走向。
為提升閱讀體驗,本文對聽稿進行了適當地編輯。原采訪指路:https://www.noemamag.com/al-will-take-over-human-systems-from-within/
關于追問nextquestion
天橋腦科學研究院旗下科學媒體,旨在以科學追問為紐帶,深入探究人工智能與人類智能相互融合與促進,不斷探索科學的邊界。如果您有進一步想要討論的內容,歡迎評論區留言,或添加小助手微信questionlab,加入社群與我們互動。
關于天橋腦科學研究院
天橋腦科學研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元創建的世界最大私人腦科學研究機構之一,圍繞全球化、跨學科和青年科學家三大重點,支持腦科學研究,造福人類。
Chen Institute與華山醫院、上海市精神衛生中心設立了應用神經技術前沿實驗室、人工智能與精神健康前沿實驗室;與加州理工學院合作成立了加州理工天橋神經科學研究院。
Chen Institute建成了支持腦科學和人工智能領域研究的生態系統,項目遍布歐美、亞洲和大洋洲,包括、、、科研型臨床醫生獎勵計劃、、中文媒體追問等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.