參考消息網6月16日報道英國《展望》月刊7月號(提前出版)刊登題為《人工智能的最大秘密:我們可以塑造它》的文章,作者為美國麻省理工學院教授、諾貝爾經濟學獎得主達龍·阿杰姆奧盧。全文摘編如下:
幾乎所有技術界業內人士和許多科技新聞從業者都認為,未來必定會實現“強大的人工智能”或通用人工智能(AGI)。人們對此前景喜憂參半。一些人認為,通用人工智能是社會走向極大豐富的必經之路,另一些人則擔心如此強大的人工智能可能會反噬人類,或者至少會給我們帶來危險。
在這些討論中,有一個詞被忽略了:選擇。
人工智能將對社會、勞動力與就業、錯誤信息與民主以及地緣政治緊張局勢產生什么樣的影響,與我們在開發這項前途光明的新生技術時所做的選擇息息相關。
我們至少面臨四種選擇,它們之間是相互關聯的。第一種是在通用人工智能與為給人類當輔助工具而設計的人工智能之間作對比。第二種重點考慮要實現人類任務的自動化,還是人類能力的擴展。第三種是比較大型通用模型與特定領域模型,前者的主要代表是“基礎模型”,也就是開放人工智能研究中心(OpenAI)用來驅動ChatGPT的那種模型;后者的設計目的則是只做好一件事即可。第四種是討論人工智能是在國際沖突中得到開發,還是在有限的合作中發展。
四種選擇
雖然許多行業人士一再聲稱實現通用人工智能指日可待,但更大的問題是,這個目標真的值得追求嗎?
從計算機科學和人工智能誕生之初,關于通用人工智能的夢想就一直存在,圖靈等領軍人物早在1949年就提出過,后來人工智能領域早期奠基人之一馬文·明斯基在20世紀60年代曾試圖付諸實踐,卻反復受挫。但他在1970年接受《時代》周刊采訪時說:“三到八年內,我們將擁有一臺具有普通人智力的機器。它能閱讀莎士比亞的作品、給車加油、搞辦公室政治、講笑話、打架。它還會以驚人的速度開始自學,幾個月后,它將達到天才的水平,然后再過幾個月它的能力將無法估量。”
如今,生成式人工智能復活了這些夢想,并賦予它們更多現實意義,盡管通用人工智能在當前的架構和方法下能否實現還存在爭議。
關鍵問題在于是要致力于發展通用人工智能,還是要努力實現機器增強人類能力。你可能會認為,從技術角度看,后者處于不利地位,那你就錯了。以人機互補為核心的理念,而不是通用智能的模糊理論,催生了我們今天日常依賴的技術:電腦鼠標、菜單驅動式計算機、超鏈接、超文本,當然別忘了還有互聯網。
還要記住重要的一點,即便通用人工智能在短期內還無法實現,對它不遺余力的追求也可能造成重大危害,例如會讓人忽視提升人類能力的其他方向。
第二個選擇關注的是當人工智能驅動的商業產品開發出來時,它們是主要致力于將人類任務的自動化,還是為人類工作者創造新的任務和能力。
從之前廣泛應用于辦公室和工廠作業自動化的數字技術可以看出,這種自動化潮流一定程度上能提高利潤和生產率,但也加劇了不平等,它導致美國大量勞動力的實際工資持續下降。
更糟的是人們會不遺余力地追求自動化。人工智能還沒為自動化潮流做好準備,但圍繞人工智能的種種宣傳鋪天蓋地,在這種氛圍中,不難想象有多少企業急于跟風,盡管他們并不了解人工智能具體能給工作帶來什么幫助,也沒有想好怎么調整企業組織,讓人工智能和人類員工能協同工作。
第三個選擇關乎架構。目前大部分研究集中在GPT這樣的通用大模型上,這種基礎模型可以一邊寫莎士比亞十四行詩,一邊為護膚霜寫廣告營銷文案。另一個選項是針對特定領域的模型,最著名的成功案例是“阿爾法折疊”程序,它能預測蛋白質的三維結構,但不會推銷護膚霜,你也別向它尋求約會建議。
如果人工智能是百事通,要想從它那里獲得深層次的專業知識并不容易。可以合理推測,當人工智能被要求處理并整合多種來源的大量差異信息時,它更有可能產生幻覺,向客戶提供錯誤的答案。
因此,投資特定領域模型還是值得的,尤其是考慮到基礎模型還掙不到什么錢。因為除編程之外,基礎模型似乎還沒有開發出任何對商業領域特別有用的應用程序。
最后,第四種選擇,在人工智能的發展方向上,不同國家之間,可以采取零和的方式,也可以進行更多的信息共享和共同監管。目前,國際社會選擇了前者。
兩大原因
我并不完全贊同當前人們做出的選擇。人工智能可以提高人類的能力,從而產生更積極的社會影響。要實現這個目標,特定領域的模型更合適,它使用高質量的數據,嵌入訓練有素、經驗豐富的人類工作者的專業知識。而如果我們的目標是提高生產力,尋找從流行病到癌癥等共同問題的解決辦法,那么中美兩國(以及任何其他國家)之間就有很大的合作空間。那么,為什么我們會被當前的這些方法所束縛呢?我認為主要有兩個原因,第一個是經濟上的,第二個是意識形態上的。
從經濟方面看,任何技術都需要企業的支持,而硅谷的公司是新數字技術的天然投資者,它們具備有效推廣這些技術的能力和經驗。硅谷巨頭們知道怎么把可用于數字廣告的自動化技術和工具商業化。但對他們來說,在缺乏商業知識或明確市場的情況下,怎么從與人類互補的輔助技術中賺大錢就不太明確了。
科技巨頭從用戶那里采集大量數據卻無需付費,相當于為他們的關鍵投入獲得大量隱性補貼,這也有力推動了對人工智能的現行主流決策。
意識形態因素也許更重要。相信機器能夠并應該最終超越人類是一種意識形態,它可能建立在數學和哲學基礎上,也可能是科幻書籍和電影看多了的結果。
但更常見的情況是一種隱晦的意圖:真正的潛臺詞可能并不是機器應該超越和主宰所有人類,而是由少數人設計和控制的機器應該統治其他人。因此,目前人工智能決策中隱藏著一種精英主義,本質上是專制的意識形態,它讓技術成為一小撮人實現宏偉夢想的工具。
探索新路
還有一種選擇:從技術層面來看是可行的,從社會角度來看也是有益的,那就是為人工智能設定一條不同的發展道路。
如果我們的目標不是通用人工智能,而是那種為人類服務的人工智能工具,那么我們就該努力開發有利于工人的人工智能,而不是大搞自動化。我們追求的人工智能可以擴展人類的能力,賦予工人權力。我們不該無休止地追求越來越大的模型,而應該努力用更多的專業知識和更高質量的數據來構建特定領域的模型。如果我們摒棄當前決策圈和硅谷盛行的簡單零和思維,嘗試找到一種更具合作性的方法來發展和監管全球人工智能,或許會取得更有效的成果。
我們不能指望目前的發展路徑自動進行自我修正。國家、社會、勞工運動、監管機構和獨立分析師必須攜手合作,來改善關于發展人工智能的敘事,制定研究議程和監管框架,來支持人工智能朝著更有益于社會的方向發展。
我們可以采取一些必要的措施。但最重要的是,人工智能研究人員本身需要認識到,他們所做的每一個選擇都會產生社會和倫理后果。也許沒有絕對的正確和絕對的錯誤,但只要選擇就會產生后果,結果有好有壞,有的甚至糟透了。對人工智能做出決策的人負有責任,無論他們是工程師,還是企業家。(編譯/戴曉崢)
英國《展望》月刊7月號(提前出版)封面
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.