導讀
2024年諾貝爾化學獎一半授予大衛(wèi)·貝克(David Baker),表彰他“在計算蛋白設計方面的貢獻”;另一半由德米斯·哈薩比斯(Demis Hassabis)和約翰·M·朱珀(John M. Jumper)共同獲得,以表彰他們“在蛋白結構預測方面的貢獻”。貝克成功完成了幾乎不可能的任務,構建了全新的蛋白質(zhì)類型。哈薩比斯和朱珀則開發(fā)了一個人工智能模型,解決了一個存在50年的難題:預測蛋白質(zhì)的復雜結構。當科學界最高獎項授予AI預測蛋白結構,隨著機器學習方法越來越多應用在研究中,這是否意味著傳統(tǒng)理論即將消亡?
據(jù)傳,被一個蘋果砸在頭上之后,艾薩克·牛頓發(fā)現(xiàn)了他的第二定律——那個關于萬有引力的定律。經(jīng)過大量實驗和數(shù)據(jù)分析,他意識到力、質(zhì)量和加速度之間存在著根本性的關系。因此,他提出了一個理論來描述這種關系,即F=ma公式,并且可以用其來預測蘋果之外的其它物體的行為。事實證明,他的理論是正確的(至少對于我們這些后人來說已經(jīng)足夠精確)。
牛頓的這種提出理論的方式和當今科學的發(fā)展方式截然不同。Facebook的機器學習工具能夠比任何心理學家都更準確地預測你的偏好[1];DeepMind所開發(fā)的程序AlphaFold能夠根據(jù)蛋白質(zhì)所含的氨基酸,對蛋白質(zhì)結構進行截至目前為止最準確的預測[2]。然而,這兩個系統(tǒng)都對它們的工作原理緘默不言,它們無法告訴我們:為什么你更喜歡這個或那個信息;為什么這個序列會生成那樣的結構。
你無法掀開幕布來窺視其中的機制。這些系統(tǒng)沒有提供任何解釋,無法提供一套能說明如何將這個變成那個的規(guī)則。簡而言之,它們沒有理論支持。它們能工作,并且做得很好,如此而已。我們每天都在見證Facebook的預測程序?qū)ι鐣挠绊憽TS多人相信AlphaFold將改變現(xiàn)代醫(yī)學[3]*。
在牛頓到馬克·扎克伯格之間的某處,理論退居了二線。在2008年時,時任《連線》雜志的主編克里斯·安德森(Chris Anderson)就預言了它的消亡[4]**。他認為,我們已經(jīng)積累了如此多的數(shù)據(jù),并且相比于人類,計算機發(fā)現(xiàn)數(shù)據(jù)間關系的能力已經(jīng)強得多,這就暴露出:我們所提出的理論不過是對現(xiàn)實的過度簡化。古老的科學研究方法——假設、預測、檢驗——很快將被扔進歷史的垃圾箱。我們將不再尋找事物的原因,而是滿足于其中的相關性。
事后看來,我們可以說安德森所看到的是真實的(他并不是唯一一個這樣認為的人)。大量數(shù)據(jù)向我們展示出的這種復雜性無法被傳統(tǒng)意義上的理論所闡述。德國圖賓根馬克斯普朗克生物控制論研究所所長、計算神經(jīng)科學家彼得·達揚(Peter Dayan)說:“我們的能力已經(jīng)滯后了,無法寫出那些會有助于描述的理論,甚至不知道它們會是什么樣。”
*譯者注
* https://www.science.org/doi/10.1126/science.abn5795
《科學》雜志的總編輯霍爾頓·索普在《蛋白質(zhì),無處不在的蛋白質(zhì)》一文中寫道:“這是一個重大的突破,其原因有二:它解決了這個在待辦事項清單上待了50年的科學問題。就像費馬大定理或引力波一樣,科學家們一直在努力解決它。其次,這個技術很大程度上改變了這個領域,就像基因編輯工具CRISPR和冷凍電鏡技術一樣,將會極大地加速科學發(fā)現(xiàn)。無論如何,這都是一個雙重意義上的重要年度突破。”
** https://www.wired.com/2008/06/pb-theory/
克里斯·安德森在《理論的終結》一文中指出:“(隨著人們從百字節(jié)到千字節(jié),再到兆字節(jié)甚至太字節(jié),)大量數(shù)據(jù)的誕生,以及處理這些數(shù)字的統(tǒng)計工具,為我們提供了一種了解世界的全新方式。相關性取代了因果性,即使沒有連貫的模型、統(tǒng)一的理論或任何機械解釋,科學也能取得進步。沒有理由堅持我們的舊方式了。是時候問一問:科學可以從谷歌那里學到什么?”
理論拒絕消亡的三個原因
但安德森對理論終結的預測似乎為時過早——或者他的論文本身可能過于簡單化了。盡管Facebook[5]和AlphaFold這樣的無理論(theory-free)預測引擎取得了成功,但理論拒絕消亡的原因仍有很多。這些成功啟發(fā)了我們?nèi)プ穯枺韩@取知識的最佳方式是什么?科學從何而來?
理論拒絕消亡的第一個原因是,我們已經(jīng)意識到,人工智能,尤其是被稱為神經(jīng)網(wǎng)絡的機器學習方法,由于它們無需接受任何的學習指導只是從數(shù)據(jù)中完成學習,本身是容易出錯的。例如,谷歌搜索引擎[6]和亞馬遜[7]招聘工具會記錄下偏見*。
第二個理由是,人類對沒有理論的科學深感不安。我們不喜歡處理黑匣子——我們想知道為什么。
第三個理由是,目前可能仍然有很多傳統(tǒng)類型的理論——即人類可以理解的理論——可以有效地解釋很多尚未被發(fā)現(xiàn)的現(xiàn)象。
*譯者注
《衛(wèi)報》在2016年的一篇名為《谷歌如何以右翼偏見傳遞虛假信息》中指出:“谷歌的搜索算法及其自動完成功能優(yōu)先考慮那些宣稱氣候變化是騙局、同性戀是罪惡、桑迪胡克大規(guī)模槍擊事件從未發(fā)生過的網(wǎng)站。”《路透社》在2018年的名為《亞馬遜廢棄了對女性有偏見的秘密人工智能招聘工具》中提到:由于該智能招聘工具是從近10年提交給公司的簡歷中來學習,而男性在科技領域中占有主導地位,因此它在評估時自動地對“女性”這個詞語進行了懲罰。
更準確的預測
所以,理論還沒有滅亡,但它正在改變——或許已經(jīng)面目全非。普林斯頓大學心理學家湯姆·格里菲斯(Tom Griffiths)說:“那些當你擁有大量數(shù)據(jù)時講得通的理論,與那些在少量數(shù)據(jù)下有道理的理論,看起來是完全不同的。”
格里菲斯一直在使用神經(jīng)網(wǎng)絡來幫助改進他所在的領域,即人類決策領域的現(xiàn)有理論。在1970年代,經(jīng)濟學家丹尼爾·卡尼曼(Daniel Kahneman)和阿莫斯·特沃斯基(Amos Tversky)提出了一種目前十分流行的前景理論(prospective theory,后來為卡尼曼贏得了一座諾貝爾獎),它解釋了人們在涉及經(jīng)濟風險時如何做出決策,其核心觀點是人們的決策并非總是理性的。
然而,在2021年6月的《科學》雜志上[8],格里菲斯的小組描述了他們在一個龐大的決策數(shù)據(jù)集上訓練神經(jīng)網(wǎng)絡的過程,該數(shù)據(jù)集包含人們在一萬個風險選擇場景中做出的決策。他們用該網(wǎng)絡來預測人們的進一步?jīng)Q策行為,并與前景理論的預測做了比較。他們發(fā)現(xiàn),雖然前景理論預測得很好,但神經(jīng)網(wǎng)絡在該理論失敗(即預測失敗)之處,顯示出了它的價值。
格里菲斯說,這些反例信息量很大,因為它們揭示了現(xiàn)實生活中存在的更多復雜性。例如,正如前景理論所描述的那樣,人們會不斷地根據(jù)傳入的信息權衡其概率。但是,當大腦要計算的相互競爭的概率太多的時候,他們可能會轉(zhuǎn)向不同的策略——例如,以經(jīng)驗法則為指導——股票經(jīng)紀人的經(jīng)驗法則可能與青少年比特幣交易員的經(jīng)驗法則不同,因為它們來自不同的經(jīng)驗[9]。
“簡單地說,我們是在使用機器學習系統(tǒng),來識別那些我們看到的東西與我們的理論不一致的情況。”格里菲斯說。數(shù)據(jù)集越大,人工智能所學習到不一致情況就越多。其最終結果不是傳統(tǒng)意義上的理論,即關于人們?nèi)绾巫龀鰶Q定的精確主張,而是一組受某些約束的主張。描述它的一種方式是“如果……則……”這樣的分叉樹。這很難用數(shù)學來描述,更不用說用語言描述了。
普林斯頓心理學家的發(fā)現(xiàn)仍然勉強能算作可解釋的,是現(xiàn)有前景理論的擴展。但隨著它們揭示出越來越多的復雜性,它們會變得越來越不可解釋——其發(fā)展過程的邏輯頂點就是Facebook或AlphaFold所體現(xiàn)的無理論預測引擎。
一些科學家對此感到滿意,甚至渴望這樣做。語音識別軟件先驅(qū)弗雷德里克·耶利內(nèi)克(Frederick Jelinek)說:“每次我解雇一名語言學家時,語音識別器的性能就會提高。”他的意思是理論阻礙了進步——而那時不過是20世紀80年代。
或者以蛋白質(zhì)結構為例。蛋白質(zhì)的功能很大程度上取決于其結構,因此,如果想要設計一種藥物來阻斷或增強某種蛋白質(zhì)的作用,則需要了解它的結構。AlphaFold在實驗結構數(shù)據(jù)上進行了訓練(數(shù)據(jù)是通過X射線晶體學等技術推導出來的)。目前,它的預測對于有實驗數(shù)據(jù)的蛋白質(zhì)而言比沒有實驗數(shù)據(jù)的蛋白質(zhì)更可靠。劍橋附近的EMBL歐洲生物信息學研究所(EMBL-EBI)前主任珍妮·特桑頓(Janet Thornton)說,它的可靠性還一直在提高,缺乏理論并不會阻止藥物設計師使用它。“AlphaFold所做的也是一種科學發(fā)現(xiàn),它只會加深我們對生命和治療的理解。”
然而其他人顯然對科學的發(fā)展方向不太滿意。例如,批評者指出,神經(jīng)網(wǎng)絡可能會產(chǎn)生虛假的相關性,尤其是在它們訓練的數(shù)據(jù)集很小的情況下。所有數(shù)據(jù)集都是有偏見的,因為科學家們收集數(shù)據(jù)的方式并不是均勻或中立的,而是始終基于某些假設或假定的。這些假設對谷歌和亞馬遜的人工智能造成了破壞性影響。正如埃克塞特大學的科學哲學家薩碧娜·萊奧內(nèi)利(Sabina Leonelli)所描述的:“我們使用的數(shù)據(jù)環(huán)境非常扭曲。”
雖然這些問題確實存在,但達揚并不認為它們是不可克服的。他指出,人類也會產(chǎn)生偏見,并且與人工智能的偏見截然不同。“人類偏見以既難被發(fā)現(xiàn),也難被糾正的方式存在。”實際上,如果一個理論產(chǎn)生的預測不如人工智能可靠,那么很難說機器是兩者中更為偏頗的那一個。
可解釋性
新的科學面臨的一個更艱難的障礙可能是我們?nèi)祟惤忉屖澜绲男枰茨軌蛴靡蚬P系來描述它。在2019年,西雅圖華盛頓大學的神經(jīng)科學家賓尼·布魯頓(Bingni Brunton)和邁克爾·貝耶勒(Michael Beyeler)寫道[10],這種對可解釋性的需求,可能阻礙了科學家們對大腦產(chǎn)生新的洞見——只能從大型數(shù)據(jù)集中涌現(xiàn)的洞見。但他們也對此表示體諒。他們寫道,如果要將這些洞見轉(zhuǎn)化為藥物和設備等有用的東西,“這些計算模型所輸出的洞見必須能夠向臨床醫(yī)生、終端用戶以及行業(yè)解釋,并得到這些群體的信任。”
如今,“可解釋的人工智能”已成為熱門話題,它旨在彌補可解釋性的鴻溝。然而,這一鴻溝或許只會越來越大,我們可能會面臨權衡取舍:我們愿意為可解釋性放棄多少可預測性?
AI科學家蘇米特·曹帕拉(Sumit Chopra)在紐約大學研究如何將機器學習應用于醫(yī)療保健中。他給出了一個磁共振圖像的例子。要生成這樣的圖像通常需要大量原始數(shù)據(jù),因此也需要較長的掃描時間。但如果你的目的只是準確地進行檢測,例如檢測癌癥,這樣的圖像其實是沒必要的。你可以通過訓練一個AI,來確定只需要原始數(shù)據(jù)中的哪一小部分就足以產(chǎn)生準確的診斷。這種方法已經(jīng)得到了驗證,而曹帕拉的團隊也已經(jīng)這樣做了[11]*。然而放射科醫(yī)師和患者顯然依舊更相信圖像本身,“我們?nèi)祟悓ψ约嚎垦劬涂梢岳斫獾亩S圖像更感到舒服。”
*譯者注
該團隊在2021神經(jīng)信息處理系統(tǒng)大會(NeurIPS)發(fā)表了《通過學習以加速核磁共振篩查》(Learning to Learning to Accelerate MR Screenings)論文,提出了一種直接從掃描儀采集的原始測量值推斷臨床相關變量的方法AcceleRated MRScreener(ARMS),在數(shù)據(jù)采集過程中實現(xiàn)20倍的加速,從而使該技術更便于臨床篩查。
通則與直覺
對后理論科學的最后一個反對意見是,可能存在著有用的舊式理論——即從離散例子中提取出的通則——仍然有待發(fā)現(xiàn),并且只有人類才能做到這一點,因為它需要我們的直覺。換句話說,它需要一種通過直覺將一些個例的屬性歸結為相關的一般規(guī)則的能力。我們認為牛頓是天才的原因之一在于,為了提出他的第二定律,他必須忽略一些數(shù)據(jù)。他必須想象物體不受空氣阻力的干擾的情況,即在真空中下落。
在2021年的《自然》雜志上,波鴻魯爾大學的數(shù)學家克里斯蒂安·斯頓普(Christian Stump)將這一直覺步驟稱為“創(chuàng)作過程的核心”[12]。然而,他寫這篇文章的目的則是表明,人工智能首次完成了這一過程。DeepMind建立了一個機器學習程序,該程序促使數(shù)學家在紐結理論(knots)中得獲得新的洞見——新的通則。
結語
如今,科學過程的每一個階段幾乎都留下了人工智能的足跡。我們越將它納入我們對知識的追求,它就越會改變這種追求。我們必須學會和它共處,但我們可以向自己保證的一件事是:我們?nèi)匀辉谔岢鰡栴}。正如巴勃羅·畢加索在20世紀60年代所說,“計算機是無用的。他們只能給你答案。”
參考文獻
1.https://www.theguardian.com/books/2021/nov/29/the-big-idea-should-we-worry-about-artificial-intelligence
2.https://www.theguardian.com/technology/2021/jul/22/ai-firm-deepmind-puts-database-building-blocks-life-human-protein-structure-free-online
3.https://www.science.org/doi/10.1126/science.abn5795
4.https://www.wired.com/2008/06/pb-theory/
5.https://www.theguardian.com/technology/facebook
6.https://www.theguardian.com/technology/2016/dec/16/google-autocomplete-rightwing-bias-algorithm-political-propaganda
7.https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
8.https://www.science.org/doi/10.1126/science.abe2629
9.https://www.theguardian.com/technology/bitcoin
10.https://www.sciencedirect.com/science/article/pii/S0959438818302502
11.https://neurips.cc/Conferences/2021/ScheduleMultitrack?event=36833
12.https://www.nature.com/articles/d41586-021-03512-4
作者:Laura Spinney
翻譯:Lu
校對:Sixin
編輯:楊銀燭
封面:DeepMind
原文:
https://www.theguardian.com/technology/2022/jan/09/are-we-witnessing-the-dawn-of-post-theory-science
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.