未來的 AI 是否會“有意識”,并以類似人類的方式體驗世界?目前沒有有力的證據表明會這樣,但 Anthropic 并未排除這種可能性。
周四,該 AI 實驗室宣布已啟動一項研究計劃,目的是調查并為應對所謂“模型福利”做好準備。作為這一努力的一部分,Anthropic 表示將探索如何判斷 AI 模型的“福利”是否值得受到道德關注、模型可能出現的“痛苦跡象”的潛在重要性,以及可能采取的“低成本”干預措施等問題。
在 AI 社區內,關于模型是否展現出任何人類特性以及我們應如何“對待”它們,存在著重大分歧。
許多學者認為,現今的 AI 無法接近人類的意識或體驗,未來也不一定能做到。我們所熟知的 AI,本質上是一個統計預測引擎。它實際上并沒有按照傳統意義上的“思考”或“感覺”。通過在無數文本、圖像等示例中進行訓練,AI 學習了各種模式,有時能以有用的方式進行外推來解決任務。
正如倫敦國王學院專注于 AI 的研究員 Mike Cook 最近在接受 TechCrunch 采訪時所說,一個模型無法“反對”其“價值”的改變,因為模型本身沒有價值。將其描述為擁有價值,就是在將人類的屬性投射到該系統上。
“任何將 AI 系統擬人化到這種程度的人,要么是在博取關注,要么就是嚴重誤解了他們與 AI 的關系,”Cook 說道。“一個 AI 系統是在優化它的目標,還是在‘獲取自身的價值’?這只取決于你如何描述它,以及你想用多么華麗的語言來形容它?!?/p>
另一位研究人員、MIT 的博士生 Stephen Casper 在接受 TechCrunch 采訪時表示,他認為 AI 僅僅是一個“模仿者”,它“會進行各種胡編亂造”,并說出“各種無聊的話”。
然而,還有科學家堅持認為 AI 確實具有價值以及其他類似于人類道德決策的成分。一項來自 AI 研究組織 AI Safety Center 的研究表明,AI 擁有一種價值系統,可能在某些情境下使其優先考慮自己的福祉而不是人類的利益。
Anthropic 一直在為其模型福利倡議打基礎。去年,該公司聘請了首位專職“AI 福利”研究員 Kyle Fish,以制定 Anthropic 以及其他公司應如何處理這一問題的指導方針。(Fish 目前正領導這項新的模型福利研究計劃,他在接受 《紐約時報》 采訪時表示,他認為 Claude 或其他 AI 當下擁有意識的可能性為 15%。)
在周四的博客文章中,Anthropic 承認,目前尚無科學共識證明當前或未來的 AI 系統是否可能具有意識或體驗到需要道德關注的感受。
“鑒于此,我們將以謙遜的態度,并盡可能少地做出假設來探討這一課題,”該公司表示?!拔覀冋J識到,隨著這一領域的發展,我們需要定期修正我們的觀點?!?/p>
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.