導讀
2024年諾貝爾物理學獎授予約翰·J·霍普菲爾德(John J. Hopfield)和杰弗里·E·辛頓(Geoffrey E. Hinton),以表彰他們“為實現(xiàn)使用人工神經(jīng)網(wǎng)絡(luò)的機器學習所做的基礎(chǔ)性發(fā)現(xiàn)與發(fā)明”。這兩位科學家利用物理學工具開發(fā)了奠定當今強大機器學習基礎(chǔ)的方法:霍普菲爾德創(chuàng)建了一種聯(lián)想記憶,可以存儲并重建圖像及其他類型的數(shù)據(jù)模式;辛頓則發(fā)明了一種能夠自主發(fā)現(xiàn)數(shù)據(jù)中特性的方法,從而執(zhí)行如識別圖像中特定元素等任務(wù)。
作為今年的諾獎得主之一,被稱為AI教父的辛頓于2023年5月從谷歌離職,并開始表示出對人工智能技術(shù)風險的擔憂。本文為《紐約客》在辛頓離開谷歌后的特寫報道,深度闡述了其研究生涯中對AI技術(shù)發(fā)展的所思所想。
化繭
在你的大腦中,神經(jīng)元以大小不一的網(wǎng)絡(luò)排列著。你的每一個動作、每一個想法都會改變這些網(wǎng)絡(luò):神經(jīng)元或被納入、或被排除,它們之間的連接或被加強、或被削弱。這個過程無時無刻不在進行——在你閱讀這些文字的時候,它就在發(fā)生變化,其規(guī)模之大超乎想象。你的腦中有大約800億個神經(jīng)元,共享1萬億甚至更多的連接。你的頭骨中就像蘊藏著一個星系,而這個星系變幻莫測。
常被稱為“人工智能教父”的計算機科學家杰弗里·辛頓(Geoffrey Hinton)遞給我一根手杖。他說:“你在這里需要它。”然后,他沿著一條穿過樹林的小路向湖岸邊走去。小路蜿蜒地穿過一片綠樹成蔭的空地,經(jīng)過成對的棚屋,然后沿著石階下到一個小碼頭。辛頓邊往下走邊警告:“這里十分滑。”
新知識會以微妙的姿態(tài)融入你現(xiàn)有的神經(jīng)網(wǎng)絡(luò)。有時它們是轉(zhuǎn)瞬即逝的:例如你在聚會上遇到一個陌生人,他的名字可能只會在你的記憶網(wǎng)絡(luò)中留下短暫的印象。但有時它們可能持續(xù)一生——要是這個陌生人成為了你的配偶。由于新知識與舊知識相互交融,你所知的會影響你所學的。如果派對上有人跟你談?wù)摿怂陌⒛匪固氐ぶ茫敲吹诙欤斈愎洳┪镳^時,你的神經(jīng)網(wǎng)絡(luò)可能會把你往維米爾(Vermeer,17世紀荷蘭畫家)那兒推一推。類似地,微小的變化往往會引起巨大的轉(zhuǎn)變。
辛頓說:“我們曾在這兒舉辦過篝火晚會。”我們在凸向安大略省喬治亞灣(Ontario’s Georgian Bay)的一塊巖石上,喬治亞灣一直向西延伸到休倫湖(Lake Huron)。水面上島嶼星羅棋布。2013年,65歲的辛頓把一家由三人初創(chuàng)的公司以440萬美元的價格賣給谷歌,然后買下了這座島嶼。在此之前,他在多倫多大學擔任了30年的計算機科學教授,在當時這個叫神經(jīng)網(wǎng)絡(luò)的乏味子領(lǐng)域中充當領(lǐng)頭羊。這個領(lǐng)域的靈感來自大腦中神經(jīng)元的連接方式。由于人工神經(jīng)網(wǎng)絡(luò)只在完成圖像分類、語音識別等任務(wù)時取得相對的成功,大多數(shù)研究人員認為它們往好了說只是略微有趣,往壞了說是在浪費時間。辛頓回憶道:“我們的神經(jīng)網(wǎng)絡(luò)甚至無法與一個孩子比肩。”20世紀80年代,當他觀看電影《終結(jié)者》時,他并沒有為電影中毀滅世界的人工智能 “天網(wǎng)”是一個神經(jīng)網(wǎng)絡(luò)感到困擾,相反,他很欣慰地看到這項技術(shù)被描繪得大有可為。
石頭上因高溫而產(chǎn)生裂縫,從生火的小凹陷處向外迸射,辛頓用棍子戳了戳生火的地方。他身材瘦高,有一副英倫面孔,作為一名徹頭徹尾的科學家,他總在評論物質(zhì)世界中發(fā)生的事情:動物的生活、海灣中的水流、島嶼的地質(zhì)。“我在木頭下面放了一個鋼筋網(wǎng),這樣空氣就能進來,溫度高到連金屬都能變軟。”他用一種奇怪的語氣說,“這才是真正的火,值得引以為傲!”
幾十年來,辛頓不斷嘗試以巧妙的方式構(gòu)建更大的神經(jīng)網(wǎng)絡(luò)。他想出新的方法來訓練它們,幫助它們不斷進步。他招募研究生,讓他們相信神經(jīng)網(wǎng)絡(luò)并不是一個失敗的事業(yè)。他認為自己在參與一個可能在一個世紀后、在他死后才會取得成果的項目。與此同時,他發(fā)現(xiàn)自己卻變成了鰥夫,獨自撫養(yǎng)兩個年幼的孩子。在一個特別困難的時期,家庭生活和研究壓得他喘不過氣來,他認為自己已經(jīng)拼盡全力。他說:“我早在46歲時就對神經(jīng)網(wǎng)絡(luò)死心了。”他沒有預料到,神經(jīng)網(wǎng)絡(luò)技術(shù)會在約十年前突飛猛進。計算機的速度越來越快,神經(jīng)網(wǎng)絡(luò)利用互聯(lián)網(wǎng)上的數(shù)據(jù)開始轉(zhuǎn)錄語音、玩游戲、翻譯語言甚至駕駛汽車。大約在辛頓的公司被收購時,人工智能開始蓬勃發(fā)展,OpenAI的ChatGPT 、谷歌的Bard等系統(tǒng)應(yīng)運而生,很多人相信它們正以不可預知的方式改變著這個世界。
辛頓沿著海岸出發(fā)了,我緊隨其后,碎裂的巖石在我腳下晃動。“看呀!”他站在一塊與人一般大的磐石前說,這塊巨石擋住了我們的去路。“你可以先這樣,先把棍子扔過去,”他把自己的棍子扔到巨石的另一邊,“然后這里和這里都有支點,這兒還有一塊能抓住的。”我看著他輕車熟路地爬過去,自己也試探性地邁出了相同的步伐。
每當我們學習時,我們的神經(jīng)網(wǎng)絡(luò)都會產(chǎn)生變化,但究竟是如何變化呢?許多像辛頓這樣與計算機打交道的研究人員,在試圖探索神經(jīng)網(wǎng)絡(luò)的“學習算法”——一種通過改變?nèi)斯ど窠?jīng)元之間連接的統(tǒng)計“權(quán)重”來汲取新知識的程序。1949年,心理學家唐納德·赫布(Donald Hebb)就人們?nèi)绾螌W習提出了一個簡單的規(guī)則,通常被概括為神經(jīng)元“共激活者共連接(fire together wire together)”。大腦中的一組神經(jīng)元一旦同步激活,就更有可能再次同步激活。這有助于解釋為什么我們在第二次做某事時會更易上手。但很快人們發(fā)覺,計算機化的神經(jīng)網(wǎng)絡(luò)需要用另一種方法來解決復雜的問題。20世紀60、70年代,辛頓還是一名年輕的研究人員,他在筆記本上繪制了神經(jīng)元網(wǎng)絡(luò),并想象著新知識如何到達它們的邊界。由幾百個人工神經(jīng)元組成的網(wǎng)絡(luò)如何存儲一個概念?如果這個概念存在缺陷,這些網(wǎng)絡(luò)又該如何修正?
我們沿著海岸繞了一圈,來到辛頓的小屋,這是島上唯一的一間小屋。它由封閉式玻璃建成,高高矗立在寬闊黝黑的巖石階梯之上。“有一次我們來到這里,一條巨大的水蛇把頭探了過來。那是一段美好的回憶。”辛頓在我們靠近屋子時說。他的父親是一位著名的昆蟲學家,曾命名了一種鮮為人知的蛻變階段(metamorphosis)。正是他的父親給他灌輸了對冷血動物的獨愛。小時候,他和父親在車庫里養(yǎng)了很多毒蛇、烏龜、青蛙、蟾蜍和蜥蜴。如今,當辛頓在島上時(他經(jīng)常在溫暖的月份去島上),常常會尋找蛇并把它們帶到家里,這樣他就可以在飼養(yǎng)箱里觀察它們。他一生都在思考如何自下而上地思考問題,因此很善于觀察非人類的心智。
今年早些時,辛頓離開了谷歌(自從辛頓的公司被收購后,他一直在谷歌工作)。他擔心人工智能可能造成危害,并開始在接受采訪時談?wù)撨@項技術(shù)可能對人類構(gòu)成的“生存威脅”。他越是使用ChatGPT(一個由大量人類寫作語料庫訓練出來的人工智能系統(tǒng))就越是惴惴不安。
有一天,福克斯新聞的人給他寫信,希望就人工智能問題進行采訪。辛頓偏愛用電子郵件發(fā)送尖刻的單句回復,比如,在收到一份來自加拿大情報機構(gòu)的長報告后,他回復:“斯諾登是我的英雄(Snowden is my hero)。”所以他嘗試寫點俏皮話,最后,他寫道:“福克斯新聞是個敏捷的白癡(Fox News is an oxy moron)*。”然后,他靈機一動,問ChatGPT能否解釋他的笑話。系統(tǒng)告訴他,他的句子暗示福克斯新聞是假新聞,當他讓ChatGPT留意“白癡”(moron)前的空格時,系統(tǒng)解釋說福克斯新聞會讓人上癮,就像藥物奧施康定(OxyContin)一樣。辛頓大吃一驚。這種理解水平似乎代表了人工智能的一個新時代。
*譯者注
oxymoron在英語中是“矛盾修飾法”之意,但它是個來自希臘語的組合詞,此處辛頓故意用空格將該詞拆開,使用希臘語本意:oxy即為希臘語oxys,意為銳利的、敏捷的、酸的;moron意為白癡。ChatGPT表現(xiàn)得似乎“理解”了辛頓的俏皮話,因為它也使用了oxy這個梗:OxyContin中的“oxy”來自其成分oxycodone,oxycodone的詞源也是oxys(取“酸”之意)。
我們有許多理由畏懼人工智能的來臨。比如,擔心人類員工被電腦取代是人之常情。但是,辛頓與包括OpenAI首席執(zhí)行官薩姆·奧特曼(Sam Altman)在內(nèi)的許多著名技術(shù)專家一起,發(fā)出了警告,稱人工智能系統(tǒng)可能會開始自我思考、甚至試圖取代或消滅人類文明。人工智能最杰出的研究人員之一,發(fā)表了如此引人心憂如焚的觀點,屬實令人震驚。
他站在自家廚房里(他一生中大部分時間都在受背痛折磨,最終疼痛變得非常嚴重,以至于他放棄了坐著。自 2005 年以來,他從未坐過超一小時。)對我說:“人們說,人工智能只是美化了的‘自動完成’功能(autocomplete)。讓我們來分析一下,假設(shè)你想成為預測下一個單詞的高手,如果你想成為真正的高手,就必須理解別人在說什么,別無他法。因此,訓練讓某物真正擅長預測下一個單詞,實際上就是在強迫它去理解。是的,這的確是‘自動完成’,但你并沒有想清楚,擁有一個真正好的‘自動完成’意味著什么。”辛頓認為,“大型語言模型”,例如為OpenAI聊天機器人提供支持的GPT,可以理解單詞和想法的含義。
那些認為我們高估了人工智能的懷疑論者指出,人類思維與神經(jīng)網(wǎng)絡(luò)之間仍存在著鴻溝。首先,神經(jīng)網(wǎng)絡(luò)的學習方式與我們不同:我們通過積累經(jīng)驗,掌握經(jīng)驗與現(xiàn)實、與自身的關(guān)系,有機地獲取知識;而神經(jīng)網(wǎng)絡(luò)則是抽象地學習,他們處理的是關(guān)于這個世界的巨大信息庫,一個他們并不真正居住其間的世界。但辛頓認為,人工智能系統(tǒng)所展示的智能超越了其人工源頭。
“當你吃東西時,你把食物吃進去,然后分解成更微小的成分,”他告訴我,“所以你大可以說,我身體里的部分是由其他動物的部分組成的。但這是在誤導他人。”他認為,通過分析人類的寫作,像GPT這樣的大型語言模型是能夠了解世界是如何運作的,從而產(chǎn)生一個能夠思考的系統(tǒng),寫作只是這個系統(tǒng)所能做的一小部分而已。他接著說:“這就好比毛毛蟲蛻變成蝴蝶。在蛹里,你把毛毛蟲變成濃湯,再從湯里把蝴蝶造出來。”
他開始在廚房邊的一個小柜子里搗鼓起來。“啊哈!”他興高采烈地把一個東西放在柜臺上——一只死蜻蜓。它被保存得非常完好。他解釋:“這是我在碼頭發(fā)現(xiàn)的。它剛在石頭上孵化出來,正在晾干翅膀,所以我把它捉住了。看它下面。”辛頓捕捉到的這只蜻蜓剛從幼蟲形態(tài)中蛻變出來。這只幼蟲長相迥異,有自己的眼睛和腿。它的背部有一個洞,蜻蜓就是從這個洞里鉆出來的。
“蜻蜓的幼蟲是生活在水里的怪物,”辛頓說,“就像電影《異形》中一樣,蜻蜓從怪物的背部破殼而出。幼蟲在一個階段變成了湯,然后蜻蜓從湯中誕生了。”在他的比喻中,幼蟲代表了用于訓練現(xiàn)代神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù),蜻蜓則代表了由此產(chǎn)生的敏捷人工智能。深度學習(辛頓幫助開創(chuàng)的技術(shù))導致了這種蛻變。我彎下腰,想看得更清楚一些。辛頓站得筆直,他幾乎總是這樣,小心翼翼地保持著姿勢。“多漂亮呀,”他輕聲說,“你現(xiàn)在明白了吧。它一開始是一類東西,現(xiàn)在變成了另一類東西。”
巨樹的枝椏
幾周前,當辛頓邀請我參觀他的小島時,我想象了各種可能發(fā)生的場景。也許他是一個想要獨處的內(nèi)向者,或者是一個有上帝情結(jié)和未來主義混合思想的科技霸主。在我抵達的前幾天,他通過電子郵件發(fā)送了一張他拍攝的照片,照片上一條響尾蛇盤踞在島上的草叢中。我不知道自己是該感到高興還是害怕。
事實上,就私人島嶼而言,辛頓的島嶼算簡陋的,總共只有兩英畝。辛頓本人與硅谷的技術(shù)大亨截然相反。現(xiàn)年75歲的他有著約書亞·雷諾茲(Joshua Reynolds)畫作中的英倫面孔,白發(fā)襯托著寬闊的前額。他的藍眼睛通常很沉穩(wěn),只留下嘴巴來負責表達情感。他是一個侃侃而談的人,特別是當談?wù)撈鹱约海啊芊颍℅eoff,他名字的簡寫)’是‘自大狂(ego fortissimo)’的變形。”他跟我說。
但他不是一個自負的人,因為他的生活被悲傷的陰影籠罩。“我也許應(yīng)該和你講講我的妻子們,”我們第一次交談時他說,“我曾有過三次婚姻。一次友好結(jié)束,另外兩次悲劇收場。”他與早年結(jié)婚的第一任妻子喬安妮(Joanne)仍然保持著友好關(guān)系,但他的第二任和第三任妻子羅莎琳德(Rosalind)和杰姬(Jackie)都分別于1994年和2018年死于癌癥。在過去的四年里,辛頓一直和退休了的社會學家羅斯瑪麗·加特納(Rosemary Gartner)在一起。她溫柔地告訴過我:“我覺得他是那種總是需要伴侶的人。”
他是一位浪漫的理性主義者,對科學和情感有著平衡的感性認識。在小屋里,一個單獨的大房間占據(jù)了一樓大部分空間,房間里擺著一艘酒紅色的獨木舟。他和杰姬在島上的樹林里發(fā)現(xiàn)了這艘年久失修的獨木舟。杰姬是一位藝術(shù)史學家,在她生病的那幾年,她和一些女獨木舟制作者一起重造了這艘獨木舟。辛頓說:“她完成了首航。”從那以后,再也沒有人使用過它。
他把蜻蜓放好,然后走到一張站立式小書桌前,那里放著一臺筆記本電腦,旁邊是一堆數(shù)獨謎題和一本記有電腦密碼的筆記本(他很少做筆記,因為他設(shè)計了一套記憶系統(tǒng),能在腦子里生成并回憶起很長的密碼)。他問道:“我們來制作族譜如何?”他用兩根手指(他沒有固定的打字指法)輸入了 “杰弗里·辛頓族譜”,然后按了回車鍵。2013年,谷歌收購了辛頓的初創(chuàng)公司,部分原因是該團隊發(fā)現(xiàn)了如何利用神經(jīng)網(wǎng)絡(luò)大幅提高圖像識別能力。現(xiàn)在,屏幕上布滿了無窮無盡的族譜。
辛頓出身于一個特殊的英國科學世家:政治激進且富有創(chuàng)造力。在他的族譜中,他的叔祖父塞巴斯蒂安·辛頓(Sebastian Hinton)是攀登架(jungle gym)的發(fā)明者,他的堂兄約翰·辛頓(Joan Hinton)是曼哈頓計劃(Manhattan Project)的物理學家。在他之前,還有露西·埃弗勒斯(Lucy Everest),她是第一位當選為英國皇家化學研究所成員的女性;查爾斯·霍華德·辛頓(Charles Howard Hinton)是一名數(shù)學家,他創(chuàng)造了四維超正方體(tesseract)的概念,這是一個通往四維空間的大門(就是電影《星際穿越》中出現(xiàn)的那個超正方體);詹姆斯·辛頓(James Hinton),一位開創(chuàng)性的耳外科醫(yī)生,也是一夫多妻制的倡導者。(據(jù)說他曾說過:“基督是男人的救世主,而我是女人的救世主。”)19 世紀中葉,辛頓的曾曾祖父、英國數(shù)學家喬治·布爾(George Boole)發(fā)明了二進制推理系統(tǒng),即現(xiàn)在的布爾代數(shù)(Boolean algebra,也稱作“邏輯代數(shù)”,是所有計算的基礎(chǔ))。布爾的妻子瑪麗·埃弗勒斯(Mary Everest)是一位數(shù)學家和作家,也是喬治·埃弗勒斯(George Everest),一位測繪者的侄女。珠穆朗瑪峰(Mt. Everest)就是以喬治的名字命名的。
“杰夫生來就是搞科學的,”辛頓以前的學生兼合作者、現(xiàn)在Meta公司負責人工智能的楊立昆(Yann LeCun)告訴我。然而,辛頓的家庭比這更離奇。他的父親霍華德·埃弗勒斯·辛頓(Howard Everest Hinton)于20世紀10年代墨西哥革命期間在墨西哥長大,在其父親管理的銀礦上工作。“他十分堅強。”辛頓這樣評價他的父親。家族傳說,12歲時,霍華德曾威脅要射殺他的拳擊教練,因為他的教練太嚴厲了,教練把他的話當真了,不得不逃離了小鎮(zhèn)。霍華德的母語是西班牙語,在伯克利上大學時,他的口音曾被人嘲笑。“他和一群同樣受到歧視的菲律賓人混在一起,成為了伯克利的激進分子。”霍華德有著成熟的馬克思主義和斯大林主義政治主張。
在學校里,辛頓偏愛科學。但出于意識形態(tài)的原因,他的父親禁止他學習生物學。在霍華德看來,基因決定論的可能性違背了共產(chǎn)主義關(guān)于人性終極可塑性的信仰。“我討厭各種信仰。”辛頓回憶起這段日子,說道。在布里斯托爾大學任教的霍華德就像是昆蟲學界的“奪寶奇兵”(Indiana Jones):他把世界各地的奇珍異物裝在行李中偷運回英國,并編輯了一份該領(lǐng)域的重要期刊。辛頓的中間名也是埃弗勒斯,他為此感受到了巨大的壓力,想著必須做出屬于自己的成績。他記得父親曾對他說:“如果你比我努力一倍,當你的年紀也是我的一倍時,你可能只有我一半成功。”
在劍橋大學,辛頓嘗試過不同的專業(yè),但他沮喪地發(fā)現(xiàn)自己從來都不是班上最聰明的學生。他曾短暫離開大學去“閱讀令人沮喪的小說”,并在倫敦打零工,后來又回來嘗試建筑學,然而只做了一天。最后,他涉獵了物理、化學、生理學和哲學,嘗試專注于一樣東西,于是選擇了實驗心理學學位。他常在道德哲學家伯納德·威廉姆斯(Bernard Williams)的辦公室里 “出沒”,發(fā)現(xiàn)他對計算機和心靈很感興趣。有一天,威廉姆斯指出,我們不同的思想一定反映了我們大腦中不同的物理排列,這與計算機中的情況完全不同,在計算機中,軟件獨立于硬件。辛頓被這一觀察所震撼。
他記得在高中時,一位朋友曾告訴他,記憶可能是以“全息”的方式存儲在大腦中的。也就是說,盡管記憶是分散的,卻可以通過任何一個局部訪問整體。他所遇到的是“連接主義(connectionism)”——一種結(jié)合神經(jīng)科學、數(shù)學、哲學和編程的方法,旨在探索神經(jīng)元如何協(xié)同合作來完成“思考”。連接主義的目標之一,是在計算機中創(chuàng)建一個類似大腦的系統(tǒng)。這在當時已經(jīng)取得了些許進展:1950年代,心理學家、連接主義先驅(qū)弗蘭克·羅森布拉特(Frank Rosenblatt)制造了一臺機器,名為“感知機”(Perceptron),它用簡單的計算機硬件模擬了一個由數(shù)百個神經(jīng)元組成的網(wǎng)絡(luò)。當連接到光學傳感器時,該設(shè)備可以追蹤不同模式的光線激活了哪些人工神經(jīng)元,從而識別字母和形狀。
在小屋里,辛頓站了會兒,然后在一樓廚房柜臺后面來回踱步。他做了些吐司,給我們每人拿了個蘋果,然后用腳踏凳為自己支起了一張小桌。家庭的壓力使他無法獲得短暫的滿足。“我一直很喜歡木工活,”我們吃東西時,他俏皮地回憶道,“在學校,你可以在晚上自愿做木工。我經(jīng)常想,如果我成了一名建筑師,是否會更快樂,因為我不必強迫自己去做這些事。而對于科學,我總是不得不強迫自己。因為家庭的原因,我必須成功,我必須有出路。這其中有快樂,但更多的是焦慮。現(xiàn)在我成功了,這讓我感到無比欣慰。”
辛頓的筆記本電腦叮咚作響。自從他離開谷歌后,他的收件箱里就不斷收到讓他對人工智能發(fā)表評論的請求。他走過去看了看郵件,然后又迷失在族譜的森林里,所有這些族譜似乎都存在這樣或那樣的問題。
“看看這個。”他說。
我走過去看了看屏幕。這是一份“學術(shù)族譜”,辛頓在最上面,下面排列著他的學生和他學生的學生。這棵“樹”非常寬廣,他必須橫向滾動鼠標才能看到自己的影響范圍之廣。“哦,天哪,”辛頓一邊研究學術(shù)族譜一邊說,“她其實不是我的學生。”他再次滾動鼠標,“他才華橫溢,卻不善于當顧問,因為他自己總能做得比別人更好。”辛頓是一位精心培育人才的人,他似乎很享受被學生超越的感覺。在評估求職者時,他經(jīng)常問他們的導師:“所以他們比你強嗎?”回憶起1977年去世的父親,辛頓說:“他極其好勝。我時常在想,如果他在我身邊看到我取得這番成功,他會不會感到高興。因為現(xiàn)在的我比他更成功。”
根據(jù)谷歌學術(shù)的數(shù)據(jù),辛頓現(xiàn)在是心理學家中被引用次數(shù)第二多的研究者,也是計算機和認知科學家中被引用次數(shù)最多的人。如果說他在劍橋大學的起步是緩慢而異乎尋常的,那要歸咎于他當時正在研究一個新興領(lǐng)域。他合上筆記本電腦說道:“當時在好大學里做神經(jīng)網(wǎng)絡(luò)的人很少。你在麻省理工學院做不了,在伯克利做不了,斯坦福也不行。”辛頓成為了一個新生網(wǎng)絡(luò)的樞紐,也有好處。多年來,許多頂尖的人才都來找他。
玻爾茲曼機
“今天天氣真好,”第二天早上,辛頓說,“我們應(yīng)該去砍一棵樹。” 他穿著一件塞進卡其褲里的正裝襯衫,看起來并不太像伐木工人。不過,他還是搓了搓手。在島上,他總是在砍樹,來為島嶼創(chuàng)造更有序、更美麗的風貌。
這棟房子其實也尚未完工,很少有承包商愿意跑到這么偏遠的地方來。辛頓雇來的人也犯了一些不必要的失誤(把排水管接到上坡上、地板做到一半不做了),這至今仍讓他憤憤不平。幾乎每個房間都有一個需要修正的小項目,在我參觀的時候,辛頓已經(jīng)在建筑材料上做了一些小標注,來幫助新的承包商。這些標注通常直接寫在建筑材料上面。在一樓的浴室里,靠墻的一塊底板上寫著:“浴室應(yīng)使用這種底板(僅限淋浴器前的楓木裝飾)。”在客房的壁櫥里,遮蔽膠帶沿著架子延伸過去:“請勿為擱板打底,而應(yīng)為擱板的支架打底。”
給事物貼標簽對大腦也很有用,它能幫助大腦把握現(xiàn)實。但是,貼標簽對人工的心智意味著什么呢?當辛頓在愛丁堡大學獲得人工智能博士學位時,他思考了如何在計算機中模擬大腦中的“認知”。當時,也就是1970年代,絕大多數(shù)人工智能研究人員都是“符號學派(symbolists)”。在他們看來,對番茄醬的認識可能涉及諸多概念,如“食物”“醬汁”“調(diào)味品”,“甜味”“鮮味”“紅色”“西紅柿”,“美國人”“炸薯條”“蛋黃醬”和 “芥末”。這些概念摻雜在一起,就形成了“番茄醬”這樣一個新的概念。有一個資金雄厚的大型人工智能項目名為Cyc,其核心是建立一個龐大的知識庫,科學家們可以使用一種特殊的語言,將概念、事實、規(guī)則以及不可避免的例外情況輸入其中(比如,鳥會飛,但企鵝、翅膀受損的鳥卻……)。
但是,辛頓對這種方法存疑。它似乎過于僵化,過于專注于哲學家和語言學家所持有的推理能力。他知道,在自然界中,許多動物在沒有可以用語言表達的概念時,也能做出智能行為。它們只是通過經(jīng)驗學會了如何變得聰明。智慧的源泉是學習,而非知識。
人類的復雜思維似乎往往是通過符號和文字進行的。但是,辛頓和他的合作者詹姆斯·麥克利蘭(James L. McClelland)以及戴維·魯梅爾哈特(David Rumelhart)認為,很多行為都發(fā)生在子概念(sub-conceptual)層面。他們寫道,“請留意,如果你了解到關(guān)于某個事物的新事實,你對其他類似事物的預期也往往會發(fā)生變化。”
例如,如果你被告知黑猩猩喜歡洋蔥,你可能會猜測大猩猩也喜歡洋蔥。這表明,知識很可能“分布”在大腦中,由相關(guān)想法間共享的小模塊組成。“黑猩猩”和 “大猩猩”這兩個概念不會有兩個獨立的神經(jīng)元網(wǎng)絡(luò),相反,表征各種具體或抽象“特征”的神經(jīng)元束——茸毛、四足的、靈長的、動物的、智力、野性等等,可能會以一種方式被激活,以表征“黑猩猩”,而以略微不同的方式被激活,表征“大猩猩”。這些特征之外,我們還可以加上“洋蔥頭”等特征。這樣構(gòu)建的大腦有可能陷入混亂和錯誤:將各種特征以錯誤的排列方式混合在一起,你會得到一個既不是大猩猩也不是黑猩猩的幻想生物。但是,擁有正確學習算法的大腦可能會調(diào)整神經(jīng)元之間的權(quán)重,使合理的組合優(yōu)于不合邏輯的組合。
辛頓不斷探索這類想法,先是在加利福尼亞大學圣迭戈分校做博士后(并與喬安妮結(jié)婚,辛頓是喬安妮在計算機視覺方向的導師),然后在劍橋大學做應(yīng)用心理學研究員,再到匹茲堡的卡內(nèi)基梅隆大學,并在1982年成為計算機科學教授。在那里,他把大部分研究預算都花在了一臺足以運行神經(jīng)網(wǎng)絡(luò)的計算機上。不久,他第二次結(jié)婚,妻子是分子生物學家羅莎琳德·扎林(Rosalind Zalin)。在卡內(nèi)基梅隆大學,辛頓取得了突破性進展。他與計算機科學家兼神經(jīng)科學家特倫斯·塞伊諾夫斯基(Terrence Sejnowski)合作,開發(fā)出了一種名為“玻爾茲曼機”(Boltzmann Machine)的神經(jīng)網(wǎng)絡(luò)。這個系統(tǒng)的名字致敬了路德維希·玻爾茲曼(Ludwig Boltzmann),這位19世紀奧地利物理學家用數(shù)學方法,描述了氣體在大尺度上的行為,與其組成粒子在小尺度上的行為之間的關(guān)系。辛頓和塞伊諾夫斯基將這些方程與“學習理論”相結(jié)合。
辛頓不愿向我解釋玻爾茲曼機。“我來告訴你這是一種什么感覺,”他說,“這好比你有一個小孩,你帶著他去散步。前面有座山,你得把這個小孩帶到山頂再折回來。”他看著我(比喻中的孩子)嘆了口氣。他的擔心是對的,我可能會被簡化的解釋誤導,進而誤導他人。“試圖解釋你不理解的復雜想法是沒有用的。首先,你必須了解某樣東西是如何運作的。否則,這對你都只是些無稽之談。”最后,他拿起幾張紙,開始繪制用箭頭連接的神經(jīng)元圖,并寫出方程式,我試著理解這些東西(在來拜訪前,我在“可汗學院”學習了線性代數(shù)課程)。
辛頓建議,有一種理解玻爾茲曼機的方法,是想象一套辨認罪犯用的容貌拼圖片:通過這個系統(tǒng),可以將臉部的各種特征——濃眉、藍眼睛、歪鼻子、薄嘴唇、大耳朵等等,組合在一起,生成一張類似警察使用的那種合成素描。要讓容貌拼圖片發(fā)揮作用,必須對特征本身進行恰當?shù)脑O(shè)計。通過改變?nèi)斯ど窠?jīng)元之間的連接權(quán)重,玻爾茲曼機不僅能學會組合特征,還能學會設(shè)計特征。玻爾茲曼機將從雜亂到像電視屏幕上雪花那樣的特征開始,然后進行兩個階段:“清醒”和“睡眠”來完善這些特征。在“清醒”時,它會調(diào)整這些特征,使它們更符合真實的面孔。在“睡眠”時,它會幻想出一張并不存在的臉,然后修改特征,使這些特征擬合起來更差。
它在夢里告訴自己不該學什么。這個系統(tǒng)非常優(yōu)雅:隨著時間的推移,它能逐漸遠離錯誤,走向?qū)崳恍枰腥巳ジ嬖V它是對還是錯。它只需要看見實在,夢見虛幻。
辛頓和塞伊諾夫斯基在1983年的一篇論文中描述了玻爾茲曼機。楊立昆跟我說:“我在研究生剛開始時讀到了那篇論文,我說,‘我必須找這些人談?wù)劊麄兪鞘澜缟衔ㄒ欢梦覀冃枰獙W習算法的人’。”80年代中期,自然語言處理和計算機視覺領(lǐng)域的先驅(qū)、現(xiàn)任魁北克人工智能研究所Mila科學主任的約書亞·本吉奧(Yoshua Bengio),訓練了一臺玻爾茲曼機來識別口語音節(jié),以此作為他碩士論文的一部分。“杰夫是外審人員之一,”本吉奧回憶道,“他寫道:‘這不會成功’。”然而,本吉奧版本的玻爾茲曼機比辛頓預期的更有效,而本吉奧花了幾年時間才找出成功的原因。這種模式將變成大家再熟悉不過的那種——在隨后的幾十年里,神經(jīng)網(wǎng)絡(luò)的表現(xiàn)往往比預期的要好,這也許是因為神經(jīng)元在訓練過程中形成了新的架構(gòu)。本吉奧回憶說:“實驗部分的工作先于理論。我們通常是嘗試新的方法,看看神經(jīng)網(wǎng)絡(luò)自己能產(chǎn)生點什么。”
辛頓說,部分由于羅莎琳德厭惡羅納德·里根(Ronald Reagan),他們搬到了多倫多大學。他們從拉丁美洲領(lǐng)養(yǎng)了一男一女兩個孩子,住在城里的一所房子里。辛頓說:“我是那種一心撲在工作上的,無私奉獻的教授。”
羅莎琳德曾為不孕不育而苦惱,也曾與冷酷無情的醫(yī)生有過不愉快的經(jīng)歷。也許正因如此,當她后來被診斷出患有卵巢癌時,她選擇了順勢療法(homeopathy)*。“這根本說不通,”辛頓說,“你不可能越稀釋某些東西,它們反而越厲害。”他不明白一個分子生物學家怎么會贊同順勢療法。盡管如此,羅莎琳德還是決心自己治療癌癥,即使檢查發(fā)現(xiàn)腫瘤有柚子那么大,她也拒絕手術(shù)。后來,她雖然同意手術(shù),但拒絕化療,轉(zhuǎn)而尋求愈加昂貴的順勢療法,先是在加拿大,后來又去瑞士。她患上了繼發(fā)性腫瘤,要求辛頓賣掉他們的房子,以支付新的順勢療法費用。他回憶道:“我在那里跟她劃清了底線,”辛頓緊瞇雙眼,痛苦呼之欲出,“我對她說:‘不行,我們不會賣房子。因為如果你死了,我就得照顧孩子們,如果我們有個房子,對他們而言會好得多。’”
*譯者注
其理論基礎(chǔ)是“用同樣的制劑治療同樣的疾病”。
羅莎琳德回到加拿大后立即住進了醫(yī)院。她堅持了幾個月,但直到去世前一天都不肯讓孩子們來看她,因為她不想讓他們看到自己病得如此之重。在整個病程中,她一直堅信自己很快就會好起來。在描述這一切時,辛頓仍顯得痛苦難當:他憤怒、內(nèi)疚、受傷、困惑。羅莎琳德去世時,辛頓46歲,兒子5歲,女兒3歲。他說:“她傷害了大家,因為她拒絕接受自己即將死去的現(xiàn)實。”
海浪聲填滿了午后的寧靜。強烈的金黃陽光透過房間的落地窗灑了進來,細小的蛛網(wǎng)延伸到窗外,在光線的映襯下顯得格外清晰。辛頓站了一陣,收拾好心情。
他說:“我想我得去砍棵樹了。”
我們走出前門,沿著小路來到棚屋前。辛頓從其中一個棚子里拿出一把綠色的小電鋸和一些安全護目鏡。
“羅斯瑪麗說過,周圍沒人的時候我不能砍樹,以防砍斷胳膊什么的。”他問我,“你以前開過船嗎?”
“沒有。”我說。
“那我就不會砍掉我的右臂了。”
在卡其褲外面,他綁上了一雙防護套鞋。
“我不想給你留下我知道自己在做什么的印象,”他說。“但基本原理是,你在樹上砍很多V字,然后樹就倒了。”
辛頓穿過小路,來到他心中選定的那棵樹旁,一邊走一邊檢查灌木叢中是否有蛇。這棵樹是一棵枝繁葉茂的雪松,大概有20英尺高。辛頓抬頭看了看樹的傾斜方向,然后啟動鋸子,開始在樹干與傾斜方向相反的一側(cè)切割。他取下鋸子,又切割了一次,割痕匯聚形成了一個V字形。然后他停了下來,轉(zhuǎn)過身對我解釋:“因為樹身偏離切口,所以隨著你的切入,V字形就會裂開,鋸條就不會被卡住。”
辛頓默默地操作著電鋸,偶爾停下來擦擦眼眉。太陽毒辣,蚊子從每一個陰暗的角落蜂擁而至。我檢查了一下棚子的側(cè)面,那里的螞蟻和蜘蛛正在進行著不為人知的、無休止的活動。在小路的盡頭,水面波光粼粼,這里是個山清水秀的地方。不過,我想我明白辛頓為什么要鋸它了:一座可愛的圓形山丘向下延伸到一個平緩的山洞里,如果沒有這棵多余的樹,光線就可以流入山洞。這棵樹是個錯誤的存在。
最后,他在樹的另一側(cè)開始了第二刀,向第一刀傾斜。然后,他來回移動,加深了兩道切口,讓樹變得搖搖欲墜。突然,重力幾乎無聲無息地占據(jù)了上風。大樹在自身重量的作用下傾倒,以驚人的柔軟姿態(tài)倒向洞底。光線射了進來。
反向傳播
辛頓愛上了玻爾茲曼機。他希望玻爾茲曼機,或者類似的東西,以真實大腦的學習方式作為基礎(chǔ)。“這應(yīng)該成真,”他告訴我,“如果我是上帝,我會讓它成真。”然而,進一步的實驗發(fā)現(xiàn),隨著玻爾茲曼機的成長,它們往往會因內(nèi)置的隨機性而不堪重負。“杰夫和我對玻爾茲曼機的看法并不一致,”楊立昆說,“杰夫認為它是最漂亮的算法。我卻認為它很丑陋。它是隨機(stochastic)的,也就是說,部分基于無序性(randomness)。相比之下,我認為反向傳播算法(backpropagation)更加簡潔。”
從20世紀60年代開始,一些研究人員對反向傳播算法進行了探索。就在辛頓與塞伊諾夫斯基合作研究玻爾茲曼機的同時,他還與魯梅爾哈特和另一位計算機科學家羅納德·威廉姆斯(Ronald Williams)合作研究反向傳播。他們懷疑這種技術(shù)在學習方面具有尚未開發(fā)的潛力,他們尤其希望將其與跨越多層運行的神經(jīng)網(wǎng)絡(luò)結(jié)合起來。
理解反向傳播的一種方法,是想象一個卡夫卡式的司法系統(tǒng)。把神經(jīng)網(wǎng)絡(luò)的上層想象成一個陪審團,它們永遠審理著案件。在陪審團剛做出判決時,在反向傳播的反烏托邦世界里,法官可以告訴陪審員,他們的判決是錯誤的,他們將受到懲罰,直到他們改過自新。陪審員們發(fā)現(xiàn),他們當中有三人在引領(lǐng)大家走上錯誤的道路時影響特別大。這種責任分攤是反向傳播的第一步。
下一步,這三個頭腦發(fā)熱的陪審員要確定他們自己是如何被誤導的。他們會考慮自己受到的影響——父母、老師、專家學者等,并找出誤導他們的人。反過來,這些應(yīng)受指責的影響者也必須找出他們的影響者,并在那些影響者之間分攤責任。隨后是一輪又一輪的相互指責,每一層影響者都要求自己的影響者承擔責任,這就是一個反向的連環(huán)套。最后,一旦知道誰誤導了誰,誤導了多少,神經(jīng)網(wǎng)絡(luò)就會按比例地進行自我調(diào)整,讓每個人少受一點“壞”影響,多受一點“好”影響。整個過程以數(shù)學上的精確度一次又一次地重復,直到所有判決(不僅僅是在這個案例中,而是在所有案例中)都盡可能地“正確”。
1986 年,辛頓、魯梅爾哈特和威廉姆斯在《自然》雜志上發(fā)表了一篇長達三頁的論文,展示了這種系統(tǒng)如何運行于神經(jīng)網(wǎng)絡(luò)中。他們指出,與玻爾茲曼機一樣,反向傳播并不是一個“大腦學習的合理模型”:與計算機不同,大腦不能倒帶以審核其過去的表現(xiàn)。但反向傳播仍能實現(xiàn)類似大腦的神經(jīng)特性。在真實的大腦中,神經(jīng)元有時會排列成旨在解決特定問題的結(jié)構(gòu):例如,在視覺系統(tǒng)中,不同“列”的神經(jīng)元能識別我們所看到事物的邊緣。反向網(wǎng)絡(luò)中也有類似的情況:高層神經(jīng)元會對低層神經(jīng)元施加一種演化壓力。其結(jié)果是,比如負責破譯筆跡的神經(jīng)網(wǎng)絡(luò)的某些層,可能會變得專注于識別線條、曲線或邊緣。最終,整個系統(tǒng)可以發(fā)展出“適當?shù)膬?nèi)部表征”。神經(jīng)網(wǎng)絡(luò)會了解并利用自己擁有的知識。
在20世紀50、60年代,“感知機”和其他連接主義研究成果曾反響巨大。但在隨后的幾年里,人們對連接主義的熱情逐漸退卻。反向傳播論文是興趣復蘇的功臣之一,它贏得了廣泛關(guān)注。但由于實踐和概念上的原因,構(gòu)建反向傳播網(wǎng)絡(luò)的工作進展緩慢。從實際上講,這是由于計算機發(fā)展遲緩。“反向傳播的進展速度基本上取決于計算機一夜之間能學會多少東西。”辛頓回憶道,“答案往往是學不了多少。”在概念上,神經(jīng)網(wǎng)絡(luò)是神秘的,因為它不可能用傳統(tǒng)的方法編程,你無法編輯人工神經(jīng)元之間連接的權(quán)重。而且不論怎樣,你都很難理解權(quán)重的含義,因為它們會通過自我訓練不斷調(diào)整和改變。
反向傳播的學習過程也存在很多易錯點。例如,在“過擬合”的過程中,網(wǎng)絡(luò)會選擇記住訓練數(shù)據(jù),而不是學習從數(shù)據(jù)中歸納總結(jié)。避免各式各樣的陷阱往往不那么簡單,因為這完全取決于網(wǎng)絡(luò)自身。這就像砍樹一樣:研究人員可以在這里或那里進行切割,但隨后樹會倒向哪里完全由樹決定。研究人員可以嘗試“集成學習”(將弱網(wǎng)絡(luò)組合成強網(wǎng)絡(luò))或“提前停止”(讓網(wǎng)絡(luò)學習,但不要學得過多)等技術(shù),他們也可以利用玻爾茲曼機對系統(tǒng)進行“預訓練”,讓它預習一些知識,然后在此之上建立一個反向傳播網(wǎng)絡(luò)。這樣,系統(tǒng)要等到掌握了一些基本知識后才開始“監(jiān)督”訓練。隨后,他們才讓神經(jīng)網(wǎng)絡(luò)自由學習,希望它能達到他們期望的要求。
新的神經(jīng)網(wǎng)絡(luò)“架構(gòu)”也應(yīng)運而生。“循環(huán)”和“卷積”網(wǎng)絡(luò)讓系統(tǒng)以各方各式在自身工作的基礎(chǔ)上取得進步。但是,研究人員仿佛發(fā)現(xiàn)了一種來自外星的技術(shù)一般,并不知道如何去使用神經(jīng)網(wǎng)絡(luò)。他們把魔方轉(zhuǎn)來轉(zhuǎn)去,試圖亂中求序。“我一直堅信神經(jīng)網(wǎng)絡(luò)不是無稽之談,"辛頓說,“它對我來說并不是信仰,而是顯而易見的。”大腦利用神經(jīng)元進行學習,因此,通過神經(jīng)網(wǎng)絡(luò)進行復雜的學習也一定是可行的。他將以雙倍的努力工作和雙倍的時間來證明這點。
當網(wǎng)絡(luò)通過反向傳播進行訓練時,它們需要被告知何時出錯以及錯了多少,這就需要大量準確標記的數(shù)據(jù),讓網(wǎng)絡(luò)能夠知道手寫體“7”和“1”之間的區(qū)別,或金毛獵犬和紅獵犬之間的區(qū)別。但很難找到足夠大且標記準確的數(shù)據(jù)集,建立更多的數(shù)據(jù)集也很困難。楊立昆和他的合作者開發(fā)了一個巨大的手寫數(shù)字數(shù)據(jù)庫,后來他們用這個數(shù)據(jù)庫訓練出了能夠讀取美國郵政服務(wù)公司提供的郵政編碼樣本的神經(jīng)網(wǎng)絡(luò)。斯坦福大學計算機科學家李飛飛帶頭開發(fā)了一個名為ImageNet的龐大數(shù)據(jù)庫。創(chuàng)建該數(shù)據(jù)庫需要收集超過1400萬張圖片,并手工將其分為2萬個類別。
隨著神經(jīng)網(wǎng)絡(luò)規(guī)模的不斷擴大,辛頓想出了一種方法:將大型網(wǎng)絡(luò)中的知識轉(zhuǎn)化為小型網(wǎng)絡(luò)(小到可在手機等設(shè)備上運行)中的知識。他在廚房解釋說:“這叫知識蒸餾。”在學校時,美術(shù)老師會給我們看一些幻燈片,然后說:‘這是魯本斯,那是梵高,這是威廉·布萊克。’但假設(shè)美術(shù)老師告訴你:‘好吧,這是提香·韋切利奧,但這是一個奇特的提香,因為它的某些方面很像拉斐爾,這對提香來說非同尋常。’這樣似乎對你更有幫助。他們不僅告訴你正確答案,而且告訴你其他似是而非的答案。”在“蒸餾學習”中,一個神經(jīng)網(wǎng)絡(luò)為另一個神經(jīng)網(wǎng)絡(luò)提供的不僅僅是正確答案,還有一系列可能的答案及其概率。這是一種更為豐富的知識。
羅莎琳德去世幾年后,辛頓與杰奎琳·福特(Jacqueline Ford,以下稱作杰姬)重逢。杰姬是一位藝術(shù)史學家,辛頓在搬到美國去之前和她曾短暫約會過。她有教養(yǎng)、熱情、富有好奇心、漂亮。辛頓的姐姐說:“你跟她比可差遠了。”盡管如此,杰姬還是放棄了在英國的工作,與辛頓一起搬到了多倫多。1997年12月6日,他們結(jié)婚了,那天是辛頓50歲生日。接下來的幾十年是他一生中最幸福的時光,他的家庭又重獲完整。他的孩子們喜歡他們的新媽媽,他和杰姬開始探索喬治亞灣的島嶼。回憶起這段時光,他凝視著客廳里的獨木舟。他說:“我們在樹林里發(fā)現(xiàn)了這艘獨木舟,它倒立著,上面覆蓋著帆布,已經(jīng)完全腐爛了,所有的東西都腐爛了。但杰姬還是打算救它,就像她救我和孩子們一樣。”
辛頓并不喜歡反向傳播。他告訴我:“這在智力上是多么令人不滿啊。與玻爾茲曼機不同,它是完全確定的。不幸的是,它的確更好用。”慢慢地,隨著實際的進展,反向傳播的威力變得不可否認。辛頓告訴我,1970年代初,英國政府聘請了一位名叫詹姆斯·萊特希爾(James Lighthill)的數(shù)學家來確定人工智能研究是否有成功的可能。萊特希爾的結(jié)論是不可能。“他是對的,”辛頓說,“前提是他做了一個當時大家一致認同的假設(shè):計算機的速度也許會快一千倍,但不會快十億倍。”辛頓在腦子里算了一筆賬,假設(shè)在1985年,他開始在一臺極快的研究計算機上運行一個程序,一直運行到現(xiàn)在,然后現(xiàn)在他開始在目前人工智能領(lǐng)域使用的最快系統(tǒng)上運行相同的程序,只需要不到一秒鐘的時間就能趕上前一個。
2000 年初,隨著配備著強大計算機的多層神經(jīng)網(wǎng)絡(luò)開始在更大的數(shù)據(jù)集上進行訓練,辛頓、本吉奧和楊立昆開始談?wù)摗吧疃葘W習”的潛能。2012年,辛頓、亞歷克斯·克里澤夫斯基(Alex Krizhevsky)和伊爾亞·蘇茨克維(Ilya Sutskever)推出了AlexNet,這是一個8層神經(jīng)網(wǎng)絡(luò),終于能夠識別出ImageNet中的物體,且準確率達到人類水平。辛頓、克里澤夫斯基和蘇茨克維成立了一家公司,并將其賣給了谷歌。他和杰姬用這筆財富買下了喬治亞灣的一座小島。“那是我一次真正的放縱”,辛頓說。
兩年后,杰姬被診斷出患有胰腺癌。醫(yī)生估計她還能活一兩年。“她非常勇敢,也非常理性,”辛頓說,“她并沒有極力否認,拼命想擺脫困境。她的觀點是‘我可以自憐自憫,也可以說我時日無多,我應(yīng)極力享受這段時光,讓其他人一切安好’。”在決定治療方法之前,她和辛頓仔細研究了統(tǒng)計數(shù)據(jù)。通過化療,她將一兩年的時間延長到了三年。在小別墅里,當她無法再走樓梯時,辛頓用繩子編了一個小籃子,這樣她就可以把茶從二樓放到一樓,然后他可以用微波爐加熱。(他后來發(fā)現(xiàn):“我應(yīng)該把微波爐直接搬樓上去的。”)
這天的晚些時候,我們靠在辛頓的辦公桌上,他用筆記本電腦給我看杰姬的照片。在一張他們婚禮當天的照片中,她和辛頓帶著孩子們站在鄰居家的客廳里交換誓言。辛頓看起來神采奕奕、放松舒適。杰姬用雙手輕輕握住他的一只手。在他給我看的最后一張照片中,她在碼頭附近斑駁的水面上劃著酒紅色的獨木舟,凝視著鏡頭。“那是2017年的夏天。”辛頓說。杰姬于次年4月去世。那年6月,辛頓、本吉奧和楊立昆獲得了“圖靈獎”(相當于計算機科學領(lǐng)域的諾貝爾獎)。
辛頓堅信,神經(jīng)網(wǎng)絡(luò)確實能夠產(chǎn)生感情。“我認為感情是一種關(guān)于‘某種東西會導致某種行為’的反事實陳述。”那天早些時候,他對我說,“比方說,我想給某人鼻子一拳。我的意思是:如果我沒有社交抑制,如果我沒有阻止自己這么做,我就確實會給他一拳。所以,當我說‘我覺得很生氣’時,這其實是‘我想做出攻擊行為’的縮影。情感只是一種陳述行動意向的方式罷了。”
他告訴我,1973年他曾見過一個“懊惱的人工智能”。當時,一臺計算機連接著兩臺電視攝像機和一個簡單的機械臂。該系統(tǒng)的任務(wù)是將攤在桌子上的一些積木組裝成一輛玩具汽車。他說:“這很難,尤其是在1973年。如果這些積木是分開的,視覺系統(tǒng)就能識別它們,但如果把它們堆在一起,視覺系統(tǒng)就無法識別它們。那么它是怎么做的呢?它把積木往后抽了一點,然后“砰!”的一聲,把它們丟落在桌子上。基本上,它無法處理正在處理的東西,所以暴力地改變了它。如果一個人這么做了,你會說他很懊惱。計算機無法看到正確的積木,所以就猛砸它們。”擁有感受其實就是去渴望你求不得之物。
“我愛這所房子,但有時這也是一個令人悲傷的地方,”當我們看照片時他說,“因為她曾喜歡待在這里,如今卻不在了。”
太陽已快落山,辛頓打開辦公桌上的一盞小燈。他合上電腦,推了推鼻梁上的眼鏡,挺了挺肩膀,把思緒拉回現(xiàn)實。
他說:“我想讓你知道羅茲(即羅莎琳德)和杰姬的事,因為她們是我生命中重要的一部分。但實際上,這也與人工智能息息相關(guān)。人們對人工智能通常持兩種態(tài)度,一種是否認,一種是聽天由命。每個人對人工智能的第一反應(yīng)都是‘我們必須阻止它’。就像每個人對癌癥的第一反應(yīng)是‘我們該切除它’。但重要的是,我們要認識到‘切除它’只是一種幻想。”
他嘆了口氣。“我們不能去否認,我們必須認清現(xiàn)實。我們需要思考:如何才能讓人工智能不那么糟糕地對待對人類?”
未來的樣貌
人工智能到底有多有用,或者說,有多危險?沒人知道,部分原因是神經(jīng)網(wǎng)絡(luò)太奇怪了。在20世紀,許多研究人員都想制造出模擬大腦的計算機。但是,盡管神經(jīng)網(wǎng)絡(luò)(如OpenAI的GPT模型)涉及數(shù)十億個人工神經(jīng)元(在這方面與大腦相似),但它們實際上與生物大腦有著天壤之別。如今的人工智能都是基于云計算,被安置在耗電量達到了工業(yè)規(guī)模的數(shù)據(jù)中心里。它們在某些方面懵懵懂懂,在另一些方面卻天賦異稟。它們?yōu)閿?shù)百萬用戶提供推理服務(wù),但卻要依賴用戶的提示詞。它們毫無生機。它們很可能已經(jīng)通過了圖靈測試 [這個由計算機先驅(qū)阿蘭?圖靈(Alan Turing)制定的標準一直以來都備受贊譽,該標準認為,任何能夠令人信服地模仿人類對話的計算機都可以被合理地認為是會思考的] 。然而,我們的直覺告訴我們,駐留在瀏覽器標簽頁中的任何東西都不可能真正以我們的方式進行思考。這些系統(tǒng)迫使我們追問,我們的思考方式是否是唯一的。
在谷歌工作的最后幾年里,辛頓把工作重心放在使用更接近大腦的硬件來創(chuàng)造更接近傳統(tǒng)心智的人工智能上。在當今的人工智能中,人工神經(jīng)元之間的連接權(quán)重是以數(shù)字形式存儲的,這就好比大腦在不斷地記錄自己的信息。而在實際的大腦中,權(quán)重是內(nèi)置于神經(jīng)元之間的物理連接中的。辛頓想利用特殊的計算機芯片,努力創(chuàng)造出這一系統(tǒng)的人工版本。
他對我說:“如果這能完成,那將會非常了不起。”芯片可以通過改變“電導”來學習。由于這種方法將權(quán)重集成到硬件中,因此不可能從一臺機器復制到另一臺機器*,每個人工智能都必須獨自學習。“它們必須像學生一樣自己去上學,”他說,“但好處是,你從使用一兆瓦的功率變?yōu)榱耸褂?0瓦的功率。”說話時,他身體前傾,眼睛盯著我:我仿佛瞥見了傳道者辛頓。
因為每個人工智能所獲得的知識都會在被拆解時丟失,所以他把這種方法稱為“凡人的計算”。“這種方法讓我們放棄了永生,”他說,“但在文學作品中,你總會為了心愛的女人放棄成為永生的神,不是嗎?在這種情況下,我們會得到比‘永生’更為寶貴的東西,那就是能源效率。”此外,能源效率還能鼓勵“個性化”:因為人腦可以僅靠麥片提供的能量運行,所以這個世界才能支持數(shù)十億個各不相同的大腦。每個大腦都可以持續(xù)地學習,而不是訓練一次,然后就丟到全世界。
*譯者注
傳統(tǒng)方法以數(shù)字形式存儲權(quán)重,因此可被復制,詳見下文的“數(shù)字智能”。
作為一項科學事業(yè),這種“凡人”人工智能可能會讓我們離復制自己的大腦更近。但辛頓遺憾地認為,數(shù)字智能似乎更強大。他說,在模擬智能中,“如果大腦死了,知識也就死了。”相比之下,在數(shù)字智能中,“如果某臺計算機死了,同樣的連接強度可以用在另一臺計算機上。而且,即使所有的數(shù)字計算機都死了,如果你把連接強度儲存在某個地方,你就可以再制造一臺數(shù)字計算機,并在這臺數(shù)字計算機上運行相同的權(quán)重。一萬個神經(jīng)網(wǎng)絡(luò)可以同時學習一萬種不同的東西,然后一起分享它們所學到的東西。” 他說,這種不朽性和可復制性的結(jié)合表明,“我們有理由擔心數(shù)字智能會取代生物智能”。
我們應(yīng)如何描述一個沒有肉體、沒有個體認同的數(shù)字智能體的精神生活?最近幾個月,一些人工智能研究人員開始將GPT稱為“推理引擎”。這也許是為了擺脫“思考”一詞,而我們卻一直在努力定義“思考”。本吉奧告訴我:“人們指責我們使用這些詞匯:‘思考’‘知道’‘理解’‘決定’等等。但盡管我們并不完全了解這些詞的含義,它們提供的類比仍能非常有效地幫助理解我們的所作所為。它幫助我們闡述和探索‘想象力’‘注意力’‘規(guī)劃’‘直覺’等詞。我們所做的很多事情都是在解決心靈的‘直覺’問題。”
直覺可以理解為我們無法解釋的想法:我們的大腦通過將當前遇到的事情與過去的經(jīng)驗聯(lián)系起來,在不知不覺中為我們生成了這些想法。我們傾向于理性而非直覺,但辛頓認為,我們的直覺比我們認為的要更強。他告訴我:“多年來,符號學派的人工智能主義者說我們的真正本質(zhì)是‘推理機器’。我認為這是無稽之談。我們的真正本質(zhì)是‘類比機器’,只是在此基礎(chǔ)上建立了一點推理能力,當類比給出錯誤答案時,我們會注意到并加以糾正。”
總體而言,當前的人工智能技術(shù)是巧舌如簧的、過于理性的:它在處理物理世界的直觀事物上卻磕磕絆絆。楊立昆告訴我:“任何青少年都可以在幾乎無人監(jiān)督的情況下,通過20個小時的練習學會駕駛汽車。任何一只貓都能跳上一系列家具,爬到某個架子的頂端。如今,除了自動駕駛汽車,我們還沒有任何人工智能系統(tǒng)能接近做到這些事情。”而且這些系統(tǒng)都被過度設(shè)計,需要“繪制整個城市的地圖、數(shù)百名工程師、數(shù)十萬小時的培訓”。解決物理直覺這樣棘手的問題“將是未來十年的巨大挑戰(zhàn)”。不過,道理還是很簡單:如果神經(jīng)元能做到,那么神經(jīng)網(wǎng)絡(luò)也能做到。
辛頓認為,人們對人工智能的懷疑盡管令人欣慰,但這種懷疑的動機往往是出于對“人類卓越論”(human exceptionalism,即認為人類生來與眾不同)的無端信任。研究人員抱怨說,人工智能聊天機器人會“制造幻覺(hallucinate)”,對那些讓它們感到棘手的問題編造出似是而非的答案。但辛頓對這種說法提出了質(zhì)疑:“我們應(yīng)該用‘編造(confabulate)’這個詞,”他告訴我,“‘致幻’是有感覺輸入時才存在的——聽覺幻覺、視覺幻覺、嗅覺幻覺。但如果只是胡編亂造,那就只是混淆而已。”他引用了理查德·尼克松(Richard Nixon)總統(tǒng)的白宮顧問約翰·迪恩(John Dean)的案例,迪恩在知道他的談話被錄音了之前,就水門事件接受了采訪。迪安信口開河,故意弄錯細節(jié),混淆誰說了什么沒說什么。“但其大意都是對的,”辛頓說,“他回憶起了當時的情況,并把這種回憶強加給了他頭腦中的一些人物。他捏造了一個小劇本。人類的記憶就是這樣。在我們的腦海中,胡編亂造和實話實說本來就是沒有界限的。說真話其實只是編造了正確的故事,因為一切都在你的權(quán)衡之中,不是嗎?”從這個角度來看,ChatGPT的編造能力是一個缺陷,但同時也是它象征人類智慧的標志。
經(jīng)常有人問辛頓是否后悔自己的工作。他不后悔。[他最近給一位記者發(fā)了一句話:“給你一首歌”,并附上了伊迪絲·琵雅芙(Edith Piaf)的《我無怨無悔》(Non, Je Ne Regrette Rien)的鏈接] 。他說,當他開始研究時,沒人想過這項技術(shù)會成功;即使開始成功了,也沒人想到它會成功得如此之快。正因為他覺得人工智能是真正的智能,所以他期望人工智能會在眾多領(lǐng)域做出貢獻。然而,他時而也會憂心忡忡,比如,他擔心有權(quán)有勢的人會濫用它。他認為自動化武器(美國軍方正在積極地研發(fā)這種武器)應(yīng)被取締,但他警告說,即使是良性的自動化系統(tǒng)也可能造成嚴重破壞。“如果你想讓一個系統(tǒng)發(fā)揮效力,就必須讓它有能力創(chuàng)建自己的子目標。現(xiàn)在的問題是,有一個非常普遍的子目標幾乎適用于實現(xiàn)所有目標:獲得更多的控制權(quán)。我們要研究的問題是:如何防止人工智能搶奪控制權(quán)?沒有人知道答案。”(他指出,“控制”并不一定是物理意義上的:“就像特朗普可以用語言入侵國會大廈一樣。”)
在這一領(lǐng)域,大家對辛頓的觀點見仁見智。楊立昆告訴我:“我并不害怕人工智能。我認為,若果我們設(shè)計它們,從而使它們的目標與我們的目標相一致,這會相對容易一些。”他接著說,“有人認為,如果一個系統(tǒng)是智能的,它就會想要主宰一切。但支配欲望與智力無關(guān),而是與睪丸激素有關(guān)。”我想起了在小屋里看到的蜘蛛,以及它們的網(wǎng)是如何布滿辛頓的窗戶表面的。它們也不想稱霸,然而它們的昆蟲智慧卻讓它們擴張了領(lǐng)地。沒有統(tǒng)一大腦(centralized brains)的生命系統(tǒng),比如螞蟻群落,并不“想要”做任何事情,但它們?nèi)匀荒芤捠常莺佣希瑖烁偁帉κ帧o論是辛頓還是楊立昆都可能是對的。人工智能的蛻變還沒有完成,我們不知道它會變成何樣。
“為什么不直接拔掉它們的插頭呢?”我問了辛頓一個關(guān)于人工智能的大眾化問題,“難道這個問題荒誕不經(jīng)嗎?”
他說:“這種說法確實不是強詞奪理:即沒有某種事物我們會過得更好——但付出這種代價并不值當。就像我們沒有化石燃料會更好一樣,但我們會變得更加原始,所以可能不值得冒這個險。”他委婉地補充道,“這是不可能發(fā)生的。因為社會就是這樣,不同國家之間會存在競爭。如果聯(lián)合國真的起作用了,也許可以阻止這樣的事情發(fā)生。盡管如此,人工智能還是非常有用的。它在醫(yī)學等領(lǐng)域有很大的潛力,當然,也可以通過自動化武器為一個國家?guī)韮?yōu)勢。”所以今年早些時候,辛頓拒絕在一份呼吁“至少暫停人工智能研究6個月”的民眾請愿書上簽字。
“那我們該如何是好?” 我問道。
“我也一籌莫展,”他說,“如果這就像全球變暖一樣,人們可以說,聽著,我們要么停止燃燒碳,要么找到一種有效的方法來清除大氣中的二氧化碳。我們心中知道解決方案長什么樣。而在人工智能領(lǐng)域,情況并非如此。”
辛頓穿著一件藍色的防水外套,我們正準備去碼頭接羅斯瑪麗。“她帶來了補給品!”他微笑著說。當我們走出門時,我回頭看了看小屋。在大房間里,酒紅色的獨木舟在陽光的撫摸下閃閃發(fā)光。椅子在獨木舟前擺成半圓形,透過窗戶面朝水面。小桌上堆放著一些雜志。這是一座美麗的房子。人類的思維不僅僅是理性,它也存在于時間之中,與生死共存,并圍繞自身構(gòu)建一個世界。它聚集了眾多意義,就像有重力相助。我想,人工智能或許也能想象出這樣一個地方。只是,它需要這樣的地方嗎?
我們沿著林間小道,穿過棚屋,沿著臺階下到碼頭,然后爬上辛頓的船。在動人的藍天下,輕風拂過水面。辛頓站在舵輪旁,我坐在船前,看著島嶼緩緩經(jīng)過,心里想著關(guān)于人工智能的故事。對有些人來說,這是一個哥白尼式的故事,在這個故事里,我們覺得“人類思維是特殊的”這一直覺正被會思考的機器所顛覆。對另一些人來說,這是一個普羅米修斯式的故事,我們盜了天火,卻冒著被燒死的風險。有些人認為我們在自欺欺人,被自己所制造的機器和希望從中獲利的公司所愚弄。從一個新奇的角度來看,這也可能是一個關(guān)于人類局限性的故事。如果我們是神,我們可能會制造出另一種人工智能。而在現(xiàn)實中,我們僅能駕馭當前這個版本的人工智能。同時,我不禁從伊甸園的角度來思考這個故事。通過在頭腦中重建知識系統(tǒng),我們抓住了禁果。現(xiàn)在,我們冒著被放逐出伊甸園的風險。但是,又有誰會選擇不去了解“了解”本身是如何運作的呢?
在碼頭,辛頓利用風力加速前進、轉(zhuǎn)彎、引導自己進入船位,如魚得水。“我在學了!”他自豪地說。我們走上岸,在一家商店旁等待羅斯瑪麗的到來。過了一會兒,辛頓進去買燈泡。我站在那里,享受著溫暖,然后看到一個身材高挑、眼睛明亮、留著長長白發(fā)的女人從停車場大步向我走來。
羅斯瑪麗和我握了握手,然后,她從我肩上瞥過去。辛頓正從商店附近的綠樹叢中走出來,咧嘴笑著。
“你的葫蘆里賣的什么藥?”她問。
辛頓舉起一條黑黃相間的烏梢蛇,大概有一米長,像彈簧一樣一圈又一圈地扭動著。“我?guī)еY物來了!”他用英勇的口吻說,“我在灌木叢里找到的。”
羅斯瑪麗開心地笑了,轉(zhuǎn)過身來對我說:“這真是典型的他。”
“它怏怏不悅。”辛頓觀察著蛇說。
“如果被抓的是你你會開心嗎?” 羅斯瑪麗問。
“我對它的脖子小心翼翼,”辛頓說,“脖子很脆弱。”
他把蛇從一只手換到另一只手,然后伸出一只手掌。手掌上沾滿了蛇黏糊糊的麝香。
他說:“來聞一下。”
我們輪流聞了聞。這味道很奇怪:礦物味、辛辣味、爬行動物味和化學味,毫無疑問是生物的味道。
“你弄得襯衫上到處都是!”羅斯瑪麗說。
“可我必須抓住它呀!” 辛頓解釋道。
他把蛇放下,蛇一跐溜進了草叢。他心滿意足地看著它離去。
他說:“好啦,今天天氣真好。我們要勇敢地去戶外穿越嗎?”
作者:Joshua Rothman
譯者:Lemon
審校:絨球兔紙
排版:絨球兔紙
封面:Daniel Liévano
原文:
https://www.newyorker.com/magazine/2023/11/20/geoffrey-hinton-profile-ai
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.