其實在終極意義上,人還是人,物就是物。物的東西需要還原論,人的東西需要現象學。
文/姜建強
最近對話式人工智能ChatGPT引發全球熱議。人,也第一次感受到了真正的挑戰。原本人是萬物的尺度,現在要讓位給ChatGPT了,它才是當之無愧的萬物的尺度。這讓人汗顏。
引發全球話題的ChatGPT
不過還好,ChatGPT還是顯現出不盡人意之處,顯現出在對話中存有的嚴重缺陷。這下人類好像又放心了,感覺超越人智還非常遙遠??刹?,《日本經濟新聞》編輯委員小柳建彥最近撰文,引用開拓深層學習基本技術的美國Meta首席AI科學家、紐約大學教授Yann Lucan的話說:先別說挑戰人類,ChatGPT“就連貓狗的智能都遠未達到”。文中還舉例說,向ChatGPT詢問“哥哥和姐姐有什么不同”時,得到的回答是“雖然兄弟姐妹關系因家庭結構和出生順序不同而存在差異,但哥哥通常比姐姐年齡大”。之所以給出這樣不知所以然的答案,是因為沒有“理解”哥哥、姐姐等詞語的概念、相互之間的關系、家庭構成等全局情況。表明ChatGPT還缺乏常識和邏輯的訓練,不足之處分分秒秒都能顯現。
這幾天在讀日本的山中伸彌和羽生善治對話體《人類的未來,AI的未來》。由上海譯文出版社 2021年12月最新翻譯出版。山中伸彌是京都大學iPS細胞研究所所長、教授、2012年諾貝爾生理學或醫學獎獲得者。羽生善治是將棋棋士、永世七冠(指在將棋七項賽事中均獲得“永世”稱號)、國民榮譽獎獲得者。一個是生命科學領域的奇人,一個是人智領域的超人;一個是對尖端醫療是否能醫治百病的設問,一個是對棋士為什么會輸給AI(人工智能)的反思。由此而引發未來人類會被AI控制嗎?AI最終會取代人類嗎?百年后的世界將是什么模樣等熱門話題。雖然無法逃逸用先驗知識結構生出的知識來源來談論未來,雖然還是用“心外無物”這個古已有之的心智結構來討論AI,但對談本身已足夠智慧與精彩,思考回路也足夠清晰與明了。
人機大戰會讓人汗顏的
在人智的將棋世界,羽生善治坦承,AI趕上人類的速度確實“大大超出了預期”。2016年3月,AI的阿爾法圍棋以四勝一負的壓倒性勝利,擊敗世界頂尖圍棋選手李世石,震驚全球。阿爾法圍棋的可怕之處在于有“啟發式”,也就是說能給出不一定是正確的答案,但可以通過估算來確定大體符合要求的答案。羽生說這相當于“人類的第六感”。2017年4月的電王戰上,將棋軟件“PONANZA”對佐藤天彥名人兩戰兩勝。羽生說,我被軟件下出同一手,還被它一步步修改說“這是正解,真是可怕的世界”。而國際象棋早在1997年,IBM的“深藍”首次戰勝了世界冠軍卡斯帕羅夫。當時“深藍”已經儲存了超過百萬局的巨量棋譜,再加上每秒鐘能思考兩億種可能的硬件??傊瑱C器之間可以24小時滿負荷對戰,以1秒一局或10秒一局的速度積累幾十萬、幾百萬場對局數據,人類對此完全望塵莫及。
不過,在羽生看來,AI對局的棋譜,首先缺乏連續性或一慣性這種人類才有的美感。其次是沒有流程的概念,每一步都指向當前局面下最好的一手。雖然看上去每一步都驚心,但人類是絕對不會選擇這種危險的下法的。因為人類有怕輸的穩扎穩打心理心像。而這個心理心像AI是無法擁有的。再次,AI不會下“招待棋”(或曰安慰棋)。要在膠著的對戰之后輸掉棋局,而且要輸的不顯山水,讓對手心滿意足的這種人類行為,AI很難做到。要么突然送一個“車”,要么亂下一氣。羽生說,日本有一位教授一直在研究和開發能下“招待棋”的將棋軟件,但少有突破。難度就在于怎樣掩飾故意而為之的行為。
為此在羽生看來,雖然不斷引入隨機變量,AI也有可能做出創造性的工作,但和我們真正意義上的創造是完全沒有關系的。有些創造只有人類才能實現。他舉例“梨妖精”(日本千葉縣船橋市的吉祥物)的例子,說不管AI怎樣進化,都創造不出梨妖精——眼睛有些灰暗,是因為看見了污濁的人世;肚子上的紅布,是回濺的血污。AI擅長根據數據預測人們喜歡的東西,但人類喜歡意外的天性,喜歡自己都難以置信的直覺,喜歡莫名其妙的可能性,AI恐怕無法預測?,F在AI也能寫詩了。但即便會寫也不具有文本意義。一個個人類肉體,寫出來的詩才有意義?!奥湎寂c孤鶩齊飛,秋水共長天一色”的詩句 AI能寫出嗎?這就在終極意義上表明人還是是人,物就是物。物的東西需要還原論,人的東西需要現象學。
不過有相當多的AI研究員認為,如果能探明人類智能的本質,便應該能創造出與人類智能相同的AI。但問題在于,何為人的“智能”?這個天問會有答案嗎?這正如羽生在獲得“永世七冠”時感言,“自己也不知道將棋的本質是什么”。山中將其解讀為棋士“謙虛的學習姿態”。其實這不是謙虛的問題,而是獲得“永世七冠”的羽生在自?。喝瞬恢约旱摹爸悄堋睘楹挝?,又何以知曉將棋的本質為何物?在書中,羽生和山中都有同感的是AI能作出巴赫的曲子,但寫不出村上春樹的小說。AI之所以寫不出村上的小說,山中認為主要是在于我們稱之為直覺的東西,AI不可能具有。羽生則認為AI擅長的是優化,它沒有我們稱之為的審美力。讓AI學會像人類看到自然風景時感到“真漂亮”的美意識,幾乎不可能。這令人想起村上春樹在《挪威的森林》里,寫綠子問渡邊:夏末陽光中的白煙是什么?渡邊說不知道。綠子說,那是燒衛生棉的煙。原來綠子上的是女子學校,她知道一天至少有180人份的衛生棉被當垃圾焚燒。這里,令人生艷的是,白煙不是煙,白煙是女生,白煙是生理。非常逆向,非常禪意。這個逆向這個禪意,AI能表現嗎?
人,還是萬物的尺度嗎?
在書中,兩位作者提到了由日本國立信息研究所新井紀子教授推動的“小東君”(2011年啟動的機器人能否考入東京大學人工智能項目),在2016年11月放棄考東大這件事。這在當時成為熱門話題的“小東君”為什么棄考?作者沒有給與解說。但依筆者所見,就在于“小東君”閱讀理解能力有限。也就是說缺乏人類所具有的常識和邏輯。如英文造句中出現“我很熱,所以——”的題目,人類學生可以輕易地接上“所以我想喝涼的”“所以我想開空調”等。但“小東君”則依據英語語法基則和網絡出現的頻率造句“很冷要喝水”。因此英文成績始終上不去。還有滿分為200分的語文,只得到96的低分,也是在對題意的理解與發揮上難有長進。這也表明AI發展到今天,遭遇的拐點就是日本機器人專家森昌弘在1970年提出的“恐怖谷”理論:我們之所以害怕機器人,是因為太像人了。太像人為什么要害怕呢?這就是人類的詭異之處。而這個詭異,機器人無法擁有。40多年后的2014年,大阪大學教授石黑浩與黑衣仿真美女展開一場世紀對話。石黑浩問:“你有心靈嗎?你有思想嗎?”仿真美女答:“我沒有心臟,但是我有一個非常強大的大腦?!痹捳Z是溫婉的。但溫婉之余之所以總讓人有寒意襲襲之感,也在于這款仿真機器人,正巧落在了“恐怖谷”的谷底。而問題的關鍵在于,這個“寒意襲襲”的感覺也是人類特有的。再智能的機器人也不會生出這種感覺。
在書的最后,兩位作者給出的最終思考是:AI技術再進步也無法取代人類,因為因果律只存于我們心中。但它或許會幫助我們解決其他威脅人類文明的風險。如氣候變化、巨型隕石撞擊、火山噴發等。甚至還有核戰爭。到那時,AI或許會向人類發出嚴厲的警告從而幫助人類克制自己。這也就是說,人類因為有了AI,將會免于被滅絕的命運。人類將與AI共存。這就想起書中的一張圖片。山中伸彌教授的研究室,掛在墻上的匾額是“人間萬事塞翁馬”。世上何為幸福何為災禍,委實難料。這是中國古人的智慧,當然也是人類的智慧。這個“難料”,就是人類對AI(當然包括ChatGPT)抱有的心情。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.