2.17
知識分子
The Intellectual
科學四十人圓桌活動現場圖。從左至右依次為:清華大學蘇世民書院院長、人工智能國際治理研究院院長薛瀾,北京大學理學部副主任、化學與分子工程學院教授、生物醫學前沿創新中心研究員高毅勤,北京郵電大學信息與通信工程學院教授、科學探索獎得主王光宇,清華大學計算機系教授、智能技術與系統實驗室副主任黃民烈。
在AI for science以及很多領域,AI的突飛猛進讓?興奮和激動;同時,AI可能的影響和導致的后果也讓我們擔心。AI將把我們帶往何處?怎么才能做到AI for good?
圍繞這些問題,與2025新年科學演講同期舉行的科學四十人圓桌,邀請到北京大學理學部副主任、化學與分子工程學院教授、生物醫學前沿創新中心研究員高毅勤,清華大學計算機系教授、智能技術與系統實驗室副主任黃民烈,北京郵電大學信息與通信工程學院教授、科學探索獎得主王光宇,主持人為清華大學蘇世民書院院長、人工智能國際治理研究院院長薛瀾。
此后的快閃接力發言由《知識分子》總編輯、中國科普作家協會理事長、中國科學院院士周忠和主持,《知識分子》總編輯、大灣區大學講席教授夏志宏,中國科學院自動化所研究員王飛躍,86歲的原中國科院大學黨委書記顏基義,首都醫科大學校長饒毅等多位學者也分享了自己的觀點。
在科學四十人圓桌之前,香港大學計算與數據科學研究院院長馬毅發表演講,提出“百模大戰”資源消耗驚人,智能本質到底是什么?亞馬遜云科技上海人工智能研究院院長張崢發表演講,提出在人工智能時代,更要像文藝復興時期一樣思考。(港大馬毅:“百模大戰”資源消耗驚人,智能本質到底是什么?、張崢演講:在人工智能時代,更要像文藝復興時期一樣思考)
在這場討論碰撞中,學者們分享了一些非常有價值、有意思的觀點。比如:
——AI具體給哪些學科帶來了范式革命?AI能否提出創新的想法,還是可能阻礙科研人員的創新?AI是不是科學史上最特別的存在?AI對科學影響的深刻程度,能否與相對論或量子力學相比?
——AI for Science面臨怎樣的關鍵挑戰?如何構建可信的科學數據共享模式,如何解決長尾分布、數據污染和數據多樣性的問題?
——如果說目前人工智能的所有數學表達公式都基于概率論,概率最大的事情就是正確的,而人類所有的原創性工作本質上都是小概率事件。那么,在現代人工智能的框架下,還需要擔心AI會超越人類嗎?
——如果我們被大量人工生產的內容包圍,再難發現事實、真相、真理,又沒有清理這些內容的能力,該如何預防這樣的未來?當內容由AI生成,目前又能否用AI的方法識別?
——AI作為心理咨詢師,能否達到中級咨詢師的水平?以及,AI自身會不會“抑郁”呢?
以下為科學四十人圓桌討論及隨后的快閃發言實錄。
撰文 |知識分子
薛瀾:今天我們聚焦人工智能,尤其是它在科學研究中的應用。過去一年,AI在科學研究領域迎來了關鍵節點,不少諾貝爾獎成果都與AI相關,這充分證明了AI的潛力,它正在深刻改變著社會的方方面面。然而,也有人擔心,未來科學研究會不會被AI完全牽著鼻子走?AI究竟能改變什么,又不能改變什么?這些問題都值得我們深思。
今天,我們有幸邀請到幾位在AI應用領域深耕的科學家,他們將分享AI在科學、醫學甚至心理健康領域的應用實踐。
高毅勤:我是做化學的,具體是理論化學和計算化學。我的研究主要是從分子出發,研究分子的物理過程,包括分子的結構以及它們之間的相互作用。我們試圖通過這些物理規律來理解生命的本質,以及分子在生物過程中的功能。
我們為什么引入AI呢?我的專業主要是理論推導和科學計算。生命過程的分子世界極其復雜,小分子的可能性有10的200次方種,藥物分子個數也高達10的60次方,這是一個巨大的數字。蛋白質的可能性也非常多。如果完全從量子力學的角度出發,從分子和原子層面理解生命過程,是非常困難的。在過去的研究中,我們試圖從微觀逐漸理解到宏觀,但這幾乎是不可能的,因為兩者之間的差距太大,可能性也太多。
而深度學習為我們帶來了新的可能。我們可以對所有分子進行壓縮表示,找到它們與宏觀現象真正相關的特征。人工智能技術可以與科學計算有效結合,比如通過強化學習,在微觀和宏觀或介觀層面同時推進,更快、更有目的地閉環學習。這樣,我們對生命基于分子的理解就能產生更多基于科學原理的數據。
王光宇:我的研究方向是智能信息處理和生物醫學計算。概括來說,我的工作主要是希望通過智能信息處理手段,深入分析和解析多源且復雜的生物醫學數據,實現對疾病的刻畫、預測或調控。
圍繞著AI for Science,我認為有三個關鍵層面,我們的工作也與之密切相關。首先是大規模數據協作。我們知道,豐富多樣的科學數據對構建AI for Science的能力至關重要,但傳統的科研流程中,實驗復雜性和數據共享目前仍是一個挑戰。如何構建可信的科學數據共享模式,是我們非常關心的問題。從技術層面來看,我們團隊面向生物醫學復雜的場景,構建了可信的隱私計算平臺,能夠彈性適配并支持科研機構合作,這屬于底層信息基礎建設方面的。
在中間層,是智能算法和模型的創新。我們正在構建基于基礎大模型的生物醫學計算框架,最近發布了一個1760億參數的生物醫學基礎模型,通過在海量的科學大數據訓練模型,使其具備生物醫學知識與能力。我們希望通過這樣的工具,來加速下游任務的新發現或新工具的使用。在應用層面,可以通過數據微調來處理長尾分布的任務或罕見疾病問題。
最后,我們希望通過這些工具結合生成式AI,生成大量的假設或實驗方案,從而拓展人類對科學假設的新靈感。通過這樣系統性的工作,能夠推動AI for Science領域的研究。
黃民烈:我領導的研究小組主要在做兩件事情。第一是AI的安全和對齊。安全是大模型最重要的研究方向之一。我們開發算法讓模型更快地對齊各種價值觀和偏好,讓它變得更安全、更可靠、更可信。我們在AI治理、AI安全以及政策法規制定方面,也跟薛老師有各種各樣的討論,為了以后有更多的合作。
第二是AI for 心理健康。2016年,英國媒體曾預測心理咨詢師是人類最不可能被AI替代的工作之一,但如今回頭看,我認為AI咨詢師替代的可能性越來越大。隨著研究的深入,我越來越確信這一點。其實早在1966年,MIT的教授就開發了Eliza,是最早的AI心理咨詢師,當時效果還挺好的。如今,大模型的發展讓我們可以預見,AI作為心理咨詢師達到中級咨詢師水平是非常有可能的。
在我的研究小組里,我們試圖讓計算機理解情緒、表達共情、理解人類的認知、心智和思維,以及預測人在社交場合中的潛在行為。從更大的層面來說,我們希望通過這些研究讓AI具備更好的社交智能,能夠理解人的情感、思維和行為背后的動機。
其實從更宏觀的角度來看,我們今天開發的所有大模型,最終目標都是為了提升生產效率、創造力和工作效率,進而提高整體的勞動生產效率。而我們團隊的研究方向則是讓AI具備更強的社交智能,使其能夠真正理解人的情感、思維和行為,以及這些行為背后的潛在動機。
AI for 心理健康是一個重要的應用場景。目前,我們已經在中小學和全國的大學推廣AI應用,比如基于AI的訪談,它可以代替人與人之間的聊天,給出初步的心理狀態評估,同時提供AI陪伴工具,幫助人們疏解情緒壓力,更好地應對各種壓力。此外,我們還開發了培訓咨詢師的工具,通過更好的培訓和反饋,幫助咨詢師更快提升咨詢技能。
01
AI for Science:跨學科合作與專業領域挑戰
薛瀾:請教各位科學家在用人工智能工具時,是自己學會用這些大模型,還是也會和學人工智能的學者合作呢?另外,在使用AI for Science的過程中,你們覺得有哪些關鍵挑戰?剛才提到數據問題,那算力呢?目前有沒有遇到什么具體問題,又是怎么解決的?
黃民烈:作為計算機科學家,我們擅長的是數據和算法。不過,今天我們確實面臨一些問題。
首先,關于數據污染的問題。這會影響我們下一步如何訓練大模型,以及如何讓它進一步迭代和提升。我們也在嘗試一些自對齊的方法,讓模型能夠自主進化,但仍然面臨長尾分布和數據多樣性的問題。
其次,當我們深入到行業的解決方案時,比如AI用于心理健康,這并不是一個簡單的通用模型能夠解決的問題。它需要深入到行業內部,不能僅僅依靠簡單的數據訓練。我們需要行業專家來注入專業知識,并提供更好的評估。比如,我們開發的AI咨詢師,如何判斷它是否達到了中級或初級咨詢師的水平?這就需要像北師大這樣有實際咨詢經驗的專家來告訴我們,目前的水平如何,還存在哪些問題。
心理學領域有很多專業知識,我們對此必須保持敬畏之心。如果希望這些工具真正幫助到更多人,情感、心智和認知的問題是非常個體化和長尾的。比如失戀,原因可能多種多樣:性格問題、相處問題,或者壓力太大不想戀愛……每個人的情況都不一樣。這就要求我們在行業基礎上進行深度鉆研,與心理學的學生和專家合作,懷著一顆敬畏的心,以確保這些工具在真實場景中真正可用。
高毅勤:實際上在分子領域,模型和通用模型有很大的不同。比如,分子可以想象成一個三維圖像,但它不僅僅是圖像,它需要符合量子力學的規律,并且要保持對稱性。通用模型在這方面是無法滿足要求的,所以我們需要自己開發模型。
當然,問題不止于此。在生命科學領域,普通的Transformer架構也會面臨一些問題,比如災難性遺忘。但在真實的物理世界中,這些問題本身是有科學規律可循的,這就需要我們開發新的算法和框架。
雖然我們自己也會寫代碼,比如我之前寫過分子動力學模擬的代碼,但在工程化的過程中,我們仍然需要外部幫助。我們和國內的很多廠商,比如華為、曙光集團等,都有大量的合作。從深度學習框架的早期開發階段開始,我們就會提出一些科學問題。我特別想強調的是,專業領域的知識不僅僅是對AI提出要求,也對AI的算法、框架甚至硬件提出了新的要求和啟示。
王光宇:從通用領域到專業領域,通用大模型在專業場景下的適用性是有限的。尤其是生物醫學開放領域,場景本身就非常復雜,不僅包含互聯網知識之外的大量專業知識,而且數據模態也更加復雜,具有高維度、跨尺度、科學規律約束的特點。這就意味著我們不能直接使用通用大模型,而需要針對專業領域開發自己的基礎大模型。在生物醫學領域,比如罕見病的推理診斷方面,通用大模型的表現并不理想。此外,專業領域的推理任務通常更加復雜,可能涉及多步推理、不確定性估計等問題。
02
從AlphaGo到AlphaFold:AI如何重塑科學研究?
薛瀾:剛才提到人工智能可以幫助提出假設,這讓我有點好奇。在大家的印象中,人工智能擅長解決重復性問題,比如像解謎題一樣快速給出答案。但它能不能識別出新的科學問題,或者發現反常現象,甚至提出創新的想法呢?在這方面,人工智能究竟能做些什么?
王光宇:這個問題確實很有挑戰性。在我看來,生成式AI的出現與我們過去做的優化工作有很大不同。生成式AI的核心在于“生成”,它能夠提出大量新的假設和方案,從而拓展科研的問題空間和解空間。比如在數學研究中,科學家們通過與AI的交互來獲取一些可能的解決方案,然后在這些基礎上進行邏輯推理。這種新型人機協作的方式,極大地提高了效率。
然而另外一方面值得警惕的是AI帶來創造力方面的風險,目前AI的訓練大多是基于已有數據的擬合,而在其訓練數據中往往會最小化異常值。但很多時候,人類科學發現正是通過對異常值的關注來取得突破的。這就引出了一個問題:現有AI的這種訓練方式是否會阻礙人類的創新,減少了偶然性發現?我認為這是有可能的。
不過,我也相信隨著研究的不斷深入,比如現在的個性化大模型技術的發展,未來能避免同質化研究問題等,同時人機協作會更加緊密。通過這種方式,我們或許能夠更好地解決這個問題,讓AI真正成為推動科學發現的重要工具。
黃民烈:我覺得這是有可能的。對于創造性問題或新的假設,往往是長尾分布的。但目前的大模型在訓練時,會傾向于高估常見事件,而低估長尾事件。換句話說,它會認為長尾事件的概率比實際發生的概率更低。
這就帶來了一個難點:我們如何設計采樣方法或算法,來提出新的假設?我覺得這是可行的。比如AlphaGo曾經下出過一些人類棋手從未下過的“上帝之手”,這些招法經過人類驗證后,就成為了新的知識。所以,AI確實有可能提出創新性的假設,關鍵在于我們如何更好地處理長尾數據,通過算法設計捕捉到這些低頻事件,并通過驗證將其轉化為知識。這或許可以成為一種基本的邏輯。
高毅勤:我也有同感。在一些復雜體系或復雜系統中,當現象、數據或相互作用的模式變得極為復雜時,人類的抽象能力和想象力可能會達到極限。但在這種情況下,通過數據壓縮和感知,AI有可能發現一些令人驚嘆的關系。這些隱藏在背后的邏輯關系,或許反而更容易被AI挖掘出來。不過,人的積極參與、深度思考以及對更底層邏輯的探尋,仍然是實現這一目標的關鍵因素。只有人機結合,才能真正發揮出AI在復雜系統中的潛力。
03
AI的未來:科學突破還是邊際收益遞減?
薛瀾:去年好幾個諾貝爾獎都和人工智能相關。我想問問各位,這只是一個特例,還是說未來這種情況可能會經常出現?換句話說,人工智能的研究,或者與人工智能相關的研究,是否會在不同科學領域持續引導出突破性的成果呢?
黃民烈:我覺得未來這種情況可能不會太多。比如Hinton獲得物理學獎,這既讓人意外,又在情理之中。他最有名的工作是玻耳茲曼機,這是基于物理學原理開發的。他甚至說過,他一生中最驕傲的工作就是玻耳茲曼機。包括這次化學獎AlphaFold,確實很有影響力,但成果大多是“摘低垂的果實”,類似這樣的工作未來可能會減少,可能會面臨邊際收益遞減的問題,導致未來獲得諾貝爾獎的概率也會更低。
王光宇:我覺得還是有一些可能性的,至少在科學領域,比如AI有可能會在諾貝爾生理學或醫學獎方面取得突破。我們可以看到,現有的實驗科學研究面臨很大的瓶頸:從假設到做實驗的周期很長,很多時候只是局部優化,且受限于數據采集與模擬空間,難以實現全局性地發現科學規律。但AI能夠有效建模和挖掘高維科研數據,捕捉潛在科學規律,突破這些局限,進而加速整個科研過程,甚至幫助人類找到尚未攻克的重大疾病的解決方案。畢竟,人類仍面臨還有很多亟待解決的疾病問題,比如腫瘤。我非常希望我們能通過AI的方法創新,在這方面取得一些突破。
高毅勤:我也覺得這種情況還是很有可能的,至少在兩個方面有較大潛力。首先,就像AlphaFold一樣,雖然表面上看似解決了蛋白質結構問題,但它真正的作用是幫助我們理解蛋白質之間的相互作用,以及細胞的特異性。這或許會帶來新的研究范式和科學發現。其次,在算法方面,隨著我們對生物過程的理解不斷加深,我們可以將生物過程視為一種算法。這可能會反向啟示我們,如何將這些基于物質世界的相互作用轉化為數學算法。這不僅對智能的理解和未來發展,也會帶來很多新的機會。我覺得這只是一個開始。
04
AI vs. 傳統工具:為何AI需要特別對待?
薛瀾:我們此前也收集了一些觀眾問題請教各位老師,比如,人類從成為人類以來,發明的機器或工具不計其數,那么是什么將AI與此前任何工具機器區別開來以至于需要特別地考慮AI for science,AI for good?
王光宇:其實AI之前也有很多科學工具,比如計算仿真工具,但為什么我們認為AI代表著一個新的科學范式呢?首先,AI的本質是讓機器具備類似人類的能力,隨著大模型的發展,AI在一定程度上已經具備了豐富的知識和推理能力,可以在很多層面幫助我們改變科研范式。
比如在工具層面,現在許多學生已經開始使用大模型作為科研工具。它可以自動讀文獻、幫助梳理和生成研究方案等。過去,科研的門檻很高,需要掌握多種工具,但大模型的出現把很多工具進行了整合,方便調用,從而大大降低了科研的門檻。從這個角度看,AI對科學研究的推動作用是“平權化”的。
在研究范式層面,過去的科研大多是假設驅動的,但現在AI可以基于數據直接產生可能的科學假設,然后再由人類進行驗證,這是一種數據密集型驅動的新模式。同時,AI作為一個工具,在提出假設后還能夠更好地挖掘高維、非線性、復雜數據中的規律,并在整個研究過程中提供幫助或模擬結果,形成了“AI in the loop”研究閉環,這在過去是很難做到的。所以,我覺得AI不僅僅是一個簡單的工具,它正在引發一場全新的科學發現變革。
高毅勤:我并不覺得AI一定是人類科學史上最特別的存在。一方面,因為我們身處其中,很容易感受到它的變化。另一方面,現在的傳播方式也讓我們覺得AI的影響力鋪天蓋地。但如果我們回過頭去比較,AI帶來的變化真的比量子力學的提出更深刻、更偉大嗎?真的比微積分的發明對世界的認知和改變更深遠嗎?我覺得這還需要時間來驗證。
05
AI時代的職業變革
薛瀾:下面的問題是,在大模型等技術的加持下,未來的四足/人形機器人/機器手能否低成本完成人類所有/絕大部分體力勞動?換句話說,今后的科研人員是不是不需要那么多了,甚至于有一天會被替代?文科還有沒有未來?
黃民烈:這個問題確實很難回答,因為它本質上是在問人和AI未來會是什么樣的關系,以及如何相互協作。
首先,AI對工作的替代正在發生,這對我們高校的專業設置影響很大。比如,很多文科專業,像機器翻譯和同聲傳譯相關方向,很多學校已經裁撤了,因為這些工作正在被AI替代。但與此同時,AI也在創造新的工作機會。所以,我們需要思考的是,人和AI到底該如何相處,以及我們的邊界在哪里。
我認為核心是:如果用AI做教育,關鍵是要設計它更好地教會學生如何學習,而不是直接喂給他知識和結果。否則,學生的能力可能會退化。在這樣不可逆轉的技術發展大潮下,我們需要重新思考如何設計教育工具、教育方法和教育理念,以更好地啟發學生提問、思考和學會學習。
人類不可能在死記硬背方面勝過AI,比如,我們使用導航系統,就是因為它能提供更全面的信息,而人類需要學會如何規劃和決策,尤其是在不確定的情況下。這是一個很大的問題,各個行業都需要深刻思考。在這樣的思考中,可能會誕生許多新的工作和就業機會,同時也會有一些舊的職業被替代。這是時代潮流,不可避免。
高毅勤:不管是在什么背景下,從事哪個領域,具備基本的科學素養都是非常重要的。我們這個世界是有規律的,不管是從社會層面還是更高層面來看問題,它都遵循一些基本的物理規律。這些規律可以幫助我們在受限的條件下更好地發展各個學科。同時,我也覺得我們需要讓這些學科更多地關注到“人”本身,而不僅僅是像機器那樣只關心效率。所以,我認為在文科中引入一些基本的科學和數學素養,或許可以用更高效的方法來展開研究和教學。
黃民烈:我想補充一點,大模型其實可以極大地助力社會學研究。我們希望物理世界有物理世界的模型,那么在精神世界或社會科學領域,也應該有一個類似的模型。而這個模型在一定程度上可以通過大模型設計和模擬出來的。最近有人做了一個涉及一千人的實驗,發現了一些非常有趣的現象,這種大規模人群實驗本身就是社會學研究中非常有價值的工具。
06
科學家快閃接力
周忠和(《知識分子》總編輯、中國科普作家協會理事長):關于AI的未來,我先分享一點自己的看法。看到這個問題,我馬上想到了人類哲學的三個經典問題:我們從哪里來?我們是誰?我們往哪里去?對于AI來說,它的起源相對簡單,但回答“AI往哪里去”的問題時,我覺得“AI是誰”這個問題很重要,就像“我們從哪里來,我們是誰”是回答“我們往哪里去”的基礎和前提一樣。接下來,我們請在座的科學家們,圍繞這個主題分享一下你們的觀點,包括看法、擔憂,甚至是奇思妙想。
黃樣(國科大天文與空間科學學院):我對黃老師的研究方向很感興趣。AI做心理咨詢的時候,一般心理咨詢師有一個風險,自己也會抑郁。那AI會不會也會得抑郁呢?
黃民烈:首先,目前的AI沒有自主情感。不過,這方面的研究其實很早就開始了,有一個研究方向叫“人工心理”,它希望讓AI有自己的心理狀態和狀態變化過程。但目前,AI的心理狀態仍然是相對機械的。
另外,如果您理解AI在某種意義上是一個“人”,那么可以認為AI學到了大數據中平均的人格。比如,谷歌在2022年有一個系統,內部人員對它進行了評估,認為它表現得像一個人。但這種表現只是基于數據的平均人格,它能夠聊出有立場、觀點和價值觀的內容,卻沒有自主情感的變化和遷移。
周忠和:黃老師的意思是AI目前不會得抑郁,對吧?
黃民烈:對,暫時不會。不過,AI給出答案后,說不定也會“抑郁”呢。
李春光(北京郵電大學):事實、真相、真理,又沒有清理這些內容的能力。該如何預防這樣的未來?
我對人工智能有一個疑慮和擔憂,在人工智能技術,特別是AIGC大行其道的今天,“寫作業”不再是難事、“寫作”不再是難事、“內容生產”不再是難事;如果有一天,我們被大量人工生產的內容包圍,再難發現事實、真相、真理,又沒有(了)清理這些內容的能力……該如何預防這樣的未來?
黃民烈:這是一個非常嚴重的問題。如果外部數據被AI污染,就會陷入一個循環:用AI生成的數據再去訓練AI。從理論上分析,長尾分布一定是被低估的,即其估計概率不足;而高頻數據則會被高估,比真實發生的概率還要高。這會導致采樣時很容易得到一些缺乏創意的結果,從而使AI的能力逐漸下降。
那怎么辦呢?我們可以用AI的方法來測試內容是否由AI生成。比如,在模型中加入水印,雖然用戶無法感知,但我可以通過算法檢測出這是模型生成的內容。比如,可以通過設置參數,在采樣時從兩個詞表中選擇,大概判斷這是否是AI生成的,甚至實現型的溯源。不過,這方面的前沿研究還在進行中,距離實際應用還有很長的路。
王飛躍(中國科學院自動化研究所研究員):今天我們討論的主題是“AI for Science”和“AI for Good”,大家都希望能找到通用人工智能的通用理論,而且可解釋,讓大家放心,For Good。
我自己從事相關的探索已經40多年了,從70年代末的布豐與蒙特卡洛試驗啟蒙,80年代初的計算實驗起步,到80年代中赴美正式開始機器人與人工智能研究,直到二年前,一直堅信可解釋的人工智能。2023年是帕斯卡誕辰400周年,葦草智庫研討紀念,讓我做一個報告。在回顧他的生平時,我突然意識到,可解釋的人工智能從字面上都說不通,智能不可解釋,不存在當下科學意義下完備且一致的智能理論,加多少形容詞都不行。所以,我認為不存在所謂的通用人工智能,除非修改定義,比如OpenAI和微軟在秘密“合同”里定義:盈利超過1000億美元就是“通用人工智能”了。
哲學上,帕斯卡以其“Pascal's Wager(帕斯卡的賭注)”著名,針對人工智能,我們應引入"Pascal's New Wager": 人工智能不可解釋,但可治理,必須治理。我知道很多人一定反對這種觀點,但我不怕被人批判,也尊重大家的探索。而且在我看來,如果智能本身可以完全解釋,那就不存在人性與哲學了。個人認為,一旦智能可以解釋,而且完備一致,就意味著人類不存在的那一天已經到來。
人類必須治理人工智能,為了安全,為了自由。有人說我們將被AI奴役,只要認真治理,這是不存在的。因為只有人才能奴役人,而且人類發展的歷史證明,沒有AI更能奴役,有了AI更難奴役。當然,前提是發展開放開源的智能,如何“AI for Good”,而不是“AI for God”,關鍵是要確保象征多樣化的二個o, 而不是獨裁式的一個o。
我想說,大家不要浪費時間去爭論這些。我們應該專注于人工智能的發展與治理,而不是糾結于如何解智能或擔心智能。智能本身是不可解釋的,無論加什么形容詞都一樣,除非你將它局限到一個很具體的場景,那它必須可解釋。但通用的、沒有邊界的、連場景都不清楚的智能,現實是不存在的,更無從解釋,除非重新定義。所以,不應浪費時間在這上面。
張崢(亞馬遜云科技上海人工智能研究院院長):說到“AI for Good”還是“AI for God”,我有一個或許有點政治正確的想法:我認為AI不僅有可能,甚至應該獲得諾貝爾和平獎。原因是什么呢?在任何一種文化中,大模型的價值觀反映的是文化價值的中間值。如果用統計分布來理解,當一個文化的中間值與長尾端的距離較遠時,這個文化往往容易被一些頭腦發熱的領導者帶到錯誤的方向。從國際關系來看,國與國之間的沖突很多時候是因為領導人意見相左。但實際上,各國文化的核心價值觀并沒有那么大的差距。如果人類愿意放手讓AI發揮作用,AI或許能夠彌合這些分歧,促進和平。所以,我覺得AI完全有資格獲得諾貝爾和平獎。
劉鈍(科學史學者):培根說“知識就是力量”,而“power”既可以理解為物理上的力量,也可以理解為權力。福柯仿此宣傳他的“知識-權力”論,也就是將主語和賓語倒過來,成了“權力即知識”,這確實很有趣。在今天的學術界,知識和權力幾乎可以畫等號。后來,赫拉利又提出了一個觀點,他說“信息就是權力”,也可以反過來說“權力就是信息”。誰掌握了信息,誰就掌握了權力;反過來也是。這和我們今天討論的“AI for Good”密切相關。
現在,大數據和大語言模型這些東西到底掌握在誰手里?赫拉利在《人類簡史》中提到,人類之所以能夠發展到今天,戰勝那些和我們相近的靈長類動物(比如黑猩猩,它們也有簡單的語言和社會性),但是只有人類的祖先能夠組織起大規模的社會群體。動物學家發現,黑猩猩的群體規模很難超過50個個體,而智人卻可以組織起成千上萬的集體。這是因為智人種群中的聰明人會“編故事”,這些故事里包括謊言與八卦,不要小看這一點,它使得智人具有凝聚在一起的力量。
今天,編“故事”和講“故事”的能力掌握在誰手里呢?我有點擔心。
顏基義(原中國科學院研究生院黨委書記):我為什么來參加這個會?因為我可能是這里最年長的人,已經86歲了。接觸AI之后,我感到非常興奮。
作為一個會很快離開這個世界的人,看到AI有這樣迅猛的發展,我覺得不應該遠離它,而應該去了解它、認識它。
今天這個會議給了我一個很好的機會,我非常感謝馬毅和張崢兩位教授的精彩演講和后面的討論,這些內容讓我對AI的認識又提升了一步。
馬毅教授一開始引用了愛因斯坦的那句話——“一切應該盡可能簡單,但不能更簡單了。”
這句話既給出了一個方向,一個起點,又給出了一個目標,一個終點。
然而在“盡可能簡單”和“不能再簡單”之間的gap其實是很大的。
我更關心的是,就這個gap而言,我們現在做的這些AI,尤其是我們國內的AI,到底發展到了什么地步了?
蘇夜陽(獨立研究者):謝謝,剛周老師提出一個很好的問題,AI是什么,人是什么,我想加一個維度,我們和AI的關系是什么。如果跳出這個場域,大部分人,我們在中國社會現代當代活著的人,也應該關心今天討論的問題。因為我們每個人,普通人對AI的理解會跟我們現在科學家們討論的不一樣。這對大家去開發AI產品,對AI進行定位,對我們投入做什么非常重要。
我自己是跨學科,工科、理科、文科都學過。我覺得文科并不是說現在需要被淘汰,而是文科現在更重要,因為我們一定要去深刻地思考一些真正的會觸動到人類,我們怎么去理解,怎么去處理好和AI的關系問題。這不是科學家說我們以后會怎么樣,我們所有的中國人都會跟著那個方向走的。因為剛剛包括大家半開玩笑提到的現在內卷,精神內耗,并不是說科學能夠解決。黃老師提到的Eliza例子,那個設計者當年最后是提醒大家,我們不要被機器欺騙。
大家看國外很多討論并不是一個笑話,包括馬斯克要去火星,背后有一套他們對人類未來、人類社會,他們自己處在人類未來社會位置的設想。那我們有沒有?如果我們有,我們中國人有的話,我們的是什么?當代的中國人是不是應該更多參與到這個討論里來?而不是說現在好像看到了的問題,全部歸于我們想象科學能夠解決,但是可能我們創造了更多的問題。
王雪凇(清華大學):我的研究方向是觀測系外行星。我在聽演講和討論的過程中發現,“科學研究范式變化”這個詞被反復提及。不同的人可能有不同的定義,但在我看來,范式變化意味著在某個事物出現之后,我們做科學的方式發生了徹底的改變——許多科學發現如果沒有它就無法實現。
然而,很遺憾的是,目前在天文學領域,我們還沒有看到因為AI而引發的范式變化。所以,我特別希望能聽聽在座各位嘉賓和老師的觀點:在你們的領域中,是否已經發現了這樣的范式變化?如果是,又是什么引發了這樣的變化?
周忠和:其實我也想問一個類似的問題。我們都在討論從假設驅動到數據驅動的轉變,這種變化肯定是存在的。但過去也并非完全沒有數據驅動,或者說觀察驅動的模式,不同學科之間本身就存在差異。那么,在AI時代之后,是不是所有學科都發生了變化?還是說這僅僅是一種趨勢,或者只是與過去的科研模式并存,并不一定占據主導地位?
王飛躍:我認為很快會出現一場巨大的范式轉移。美國有些人聲稱己把所有的身家都押在了AI領域,去年被稱為AI Agent的元年,今年則是代理智能(Agentic Intelligence)的爆發之年。但這還不夠,Agentic Intelligence會過去的,下一個新AI就是組織化的Autonomous Intelligence, 我自己將這種趨勢定義為“平行驅動”的科學新范式:未來,科學家可以分為三類:生物人科學家(人類)、機器人科學家和數字人科學家。其中,人類科學家可能只占不到5%,機器人科學家占不到15%,而80%以上的數字人科學家將完成80%以上的工作。將來,科學家就是智能新時代的農民,主要工作就是寫論文,通俗講就是種植喂養各種AI大模型的“糧食”,確保AI向人類對齊,而不是奴役我們。農業社會的范式是農民農田種地,工業社會的范式是工人工廠打工,下一個智業社會的范式就是教授教室科研寫文章,喂養AI,從而SFT各種各樣真正有用的專業垂直大模型。這是巨大的社會范式轉移,所以不久科學家就是農民、工人,就是最普通最大眾的工種。
想象一下,當我們睡覺的時候,數字人科學家可以利用大模型進行搜索和計算實驗。它們可以完成上千萬次的計算實驗,然后機器人科學家從中篩選出一百個進行物理實驗。你可以設想,在未來的沙漠里,到處都是自動化的實驗工廠。數字人科學家在虛擬世界中完成計算后,機器人科學家在物理世界中進行調整,最終選出五個實驗讓人類科學家參與或主導。這就會從人類的隱性小知識中產生出海量的科學大數據,極大地加速科學研究的進程,無論是在制造、制藥、生物合成還是其他領域,引發產業革命,最后形成造福人類的科技深智能。
我堅信,未來的一天,我們會看到這樣的場景:早上(AM,Autonomous Mode)是自主模式,數字人科學家完成大部分工作,時間20小時以上;下午(PM, Parallel Mode)是平行模式,人類通過遠程遙控指導機器人和數字人完成任務,時間3小時以下;晚上(EM,Ecpert/Emergency Mode)是專家模式或應急模式,人類專家親自到現場與機器人數字人一起完成任務,時間1小時以下。未來的一年將進入“1023”模式:上午10點離開家上班,下午2點離公司下班,每周工作3天,每年10月23號放假直到次年的1月23號,各種原有假期依然保留。
這就是我對AI的希望,也是我的信仰:這場革命性的范式轉移,必須給人類帶來如此的福祉,否則就不是智能。
周忠和:您的想象力非常豐富,我不太相信。
周祝平(中國人民大學健康與健康學院):我想就“AI for Good”提兩個問題。AI到底能讓人類變得更自由,還是更不自由?AI是會讓人類社會變得更加互信,還是會變得不互信?我之所以提出這些問題,是因為我們都知道,誰掌握了AI的算法和代碼,誰就掌握了控制權。就像《人類簡史》里提到的,少數人可能會通過控制這些程序來掌控社會。那么,我們到底是不是變得更自由了?這確實是一個令人焦慮的問題。
張崢:你可以把AI看成是一個放大器,假如說你的心靈本身不自由,那會更加不自由;假如說本來自由,會更自由。假如說社會本來互信,那就會更互信,反之亦然。
未知科學家:大模型出來后,是否理解自然數、有理數、物理數,極限,可數和不可數的概念?我覺得這個問題可以進一步探討,我把這個“球”踢給夏老師。
夏志宏(《知識分子》總編輯、大灣區大學講席教授):這個“球”踢得太遠了。其實人工智能和人類智能有一個非常本質的區別。剛才的問題也代表了現代人工智能的發展方向——它是數據驅動的。數據驅動并不是推理,而是完全基于概率。所以我一直不擔心人工智能會超越人類或者控制人類。某些能力是我們設計的,肯定會在某些方面超過人類,但這并不意味著它具備人類的智能。
目前人工智能的所有數學表達公式都基于概率論——它認為概率最大的事情就是正確的。然而,人類所有的原創性工作本質上都是小概率事件。信息論告訴我們,信息量最大的往往是概率最小的。人工智能不可能提供多余的信息,如果提供多余的信息,那它就是在撒謊。至少在現代人工智能的框架下,我們完全不必擔心它會超越人類。
舉個例子,我們發明了汽車,它的速度比人類快得多,但這和智能無關。目前人工智能主要解決的是一些特定功能,尤其是重復性任務。從底層數據公式和數學原理上看,它不具備創造性。愛因斯坦的廣義相對論方程沒有任何數據支持,一百年后才被驗證是正確的。你很難想象讓機器人去發現這樣的方程,至少在現有的框架下這是不可能的。
另外,很多人擔心人工智能會擁有情感。但我們設計時并沒有賦予它情感。比如,我們在設計時沒有讓它在面對不利情況時反抗人類。如果我們在設計時考慮了“停電就是死亡”,它可能會有生存的意識,但這并不是我們設計的方向。目前人工智能的作用是完成我們希望它做的事情,我們沒有設計讓它有情感或自主思維,比如“碰到它就會感到疼痛”或“停電就會反抗”,這些更接近人類的設計,它就不會做。
饒毅(首都醫科大學校長、北京大學終身講席教授):我聽過一句話:“人類一發言,上帝就發笑”。我覺得這句話可以改編:沒有學過生物的人談智能,學過神經科學的人就會覺得發笑。因為我們對智能的了解其實是非常有限的。人工智能顯然有很大的影響,尤其是對我們日常生活的影響,這種影響類似于個人計算機帶來的變化。但它的深刻程度肯定無法與相對論或量子力學相比。不過,科學的深刻性并不是唯一的衡量標準,對人類生活的影響程度才是大家目前更關心的。
在我們自己的領域,神經科學受人工智能的影響其實還比較小,但腦機接口領域可能會受影響。因為腦機接口中有很多數據是傳統方法分析不下去的,通過大規模統計是有道理的,所以人工智能在這方面會有一定影響。
大家喜歡談情緒和情感,但在我看來,這些其實并不重要。我認為情緒和情感是生物進化過程中的一種妥協。因為有些復雜的數據算不下去,干脆加入情緒和情感來迅速做出決策,讓進化更快一點,先活下去再說。但這種妥協也帶來了現在的一大堆問題。比如人和機器談戀愛,對一般人來說,這肯定是幸福的,因為機器永遠聽你的,不存在協調關系(笑)。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.