編者按
2025年7月9日至10日,第十一屆尼山世界文明論壇將在山東曲阜舉辦。
從2010年9月創立至今,尼山論壇匯集全球專家學者,匯聚世界文明智慧,共同為解決人類社會普遍存在的問題、為人類文明的未來發展貢獻智慧,正日益成為世界了解中國的重要窗口、文明交流互鑒的重要平臺、凝聚人類文明共識的重要紐帶。
當下,全球政治沖突頻發、各國之間經貿壁壘陡增,不同文明之間的對話顯得尤為迫切。
本屆尼山論壇的主題是“各美其美·美美與共——文明間關系與全球現代化”,并設置了“文明的起源與未來發展”“儒家文化的世界意義和時代價值”“齊魯文化與世界文明”“在全球現代化進程中成人之美”“文明視野下的家庭意義與社會發展”“人工智能發展與人類文明走向”等多個分議題。
這個世界如何才能做到各美其美、美美與共,不同的文明如何相處和互鑒,人類才能擁有更好的未來?結合本次論壇的主題和各分議題,經濟觀察報采訪了來自不同國家和地區的學者與專家,以下是來自他(她)們的觀察、思考和期望。
經濟觀察報 見習記者 馮雨晨
從蒸汽機驅動工業革命,到電力重塑生產方式,再到信息技術顛覆社會連接,歷次技術飛躍都深刻重構了人類文明的軌跡。而正在迅猛發展的人工智能的獨特之處在于:它催生了首個具備自主演進能力的智能主體。
生成式AI正在以周為單位迭代,人類文明再次站在了躍遷的臨界點。與此同時,疑惑、反思、擔憂接踵而來:
當人工智能大量自動化及替代人類工作時,人類與人工智能如何共洽?
當人工智能像電流一般滲透進人類的工作生活,人類文明面臨何種挑戰?挑戰之中人類文明將面臨威脅還是躍升?
當人工智能變得越來越成熟甚至超越人的智慧,人類如何保全自己的主體性?人類文明將發生什么樣的變化、又需要何種核心價值觀的支撐?
種種嶄新的疑問面前,漸進式的討論與思考必不可少。
經濟觀察報專訪中共中央黨校社會和生態文明教研部教授丁元竹,探討人工智能時代的人類文明走向。丁元竹長期致力于人工智能與社會治理、人類文明演進交叉研究,在其著作《從篝火到AI:窺見無垠的共同體》中,丁元竹曾對人工智能在未來社會的角色、人類社會關系網絡變化的可能趨勢與問題、未來社會的可能特征等進行了分析。
以下為經濟觀察報與丁元竹的專訪內容。
人工智能對社會文明帶來威脅還是躍升?
經濟觀察報:人工智能是一種新技術、新智能,你認為社會目前對人工智能的接受程度如何?
丁元竹:要使人們接受新技術,需要把各個利益相關方都納入考量范圍,與社會開展對話,提高技術的社會接受度。縱觀智人歷史就會發現,只有引發社會變革的技術與適應、促進技術發展的社群協同發展、相互促進,才能推動社會的發展。誠然,人工智能在最近兩年的發展中確實存在很多問題,既存在算力問題,也有模型問題,還有數據方面的問題,這都影響人工智能的應用和發展。
但必須看到,除了“技術—經濟周期”之外,社會對人工智能的發展也有一個技術的“社會接受”過程,主要表現在三個方面:一是全體社會成員對人工智能技術的認識程度,人們如何從已有的知識框架、歷史和經驗看待正在出現的新技術及其社會影響,以及對自己、對社會帶來的正面與負面影響。新科技在歷史上之所以常常帶來災難,并不是科技本身有什么問題,而是人類得花點兒時間才能學會善用科技。二是人們掌握人工智能技術和對人工智能發展現狀的認識會影響人們的認知。三是人們能不能對人工智能技術有深刻的理解,它的發展現狀、規律等,尤其是那些在社會領域中工作的專業人員,他們能不能想象出自己生活和工作領域的人工智能應用場景,且與技術人員建立起密切的聯系、溝通,甚至參與到人工智能技術開發過程中,這對加速人工智能場景落地和在經濟社會領域中的廣泛應用非常關鍵。
縱觀歷史,新技術進入社會領域的速度不會那么快,因為人們總是沿著某種習慣的路徑前進,盡管對出現的新情況、新技術抱有熱情、渴望、歡迎的態度,但真正深刻認識并迅速接受新技術往往不是大多數成員能夠做到的。
經濟觀察報:人們在逐漸接受人工智能這項新技術的過程中,會面臨哪些挑戰?
丁元竹:人工智能技術以前所未有的速度在落地生根,廣泛滲透到各個領域,它如同一股強勁的力量,開始重塑人類生產方式、生活方式,以及社會運行等。但是,在這場看似璀璨的科技變革浪潮之下,卻潛藏著一系列不能忽視的暗流。盡管人工智能技術尚未達到高度自主可控水平,但隨著技術不斷發展迭代,未來不排除出現技術失控的可能性。因此,有必要從現在開始高度重視人工智能技術落地過程中可能帶來的風險與挑戰。
以生成式人工智能為例,自然語言處理模型對社會潛在影響廣泛而多樣,幾乎涉及社會治理、公共服務、社會結構的方方面面。一是就業和勞動力市場。人工智能和自動化會導致各行各業的工作崗位流失。然而,它也會創造出更具復雜性、創造性和技術技能性的新崗位。二是隱私和數據保護。人工智能系統依賴大量數據引發了人們對隱私和安全的擔憂,若是監管不當,會導致數據分析結果的濫用。三是數據訓練中的偏見和公平問題,人工智能系統無意中會表現出在訓練數據中存在的偏見,導致在工作招聘、執法和貸款審批等領域產生不公平結果。
人工智能的真正挑戰不在于技術本身,而在于如何把它接入人類社會和文化的體制機制。未來,發生在人工智能領域的競爭不僅是算力競爭,更是制度體制和文化適應性的較量——就像電動車的成功既依靠電池技術,也依靠充電網絡一樣。人工智能之所以特別,以至于有必要調整私法來促進其推廣并挖掘其增長潛力,原因在于它具有許多新的特性,其中兩個尤為重要:自主性和不透明性。
經濟觀察報:在這種挑戰中,人工智能會給人類文明帶來威脅還是躍升?
丁元竹:不能簡單地談威脅還是躍升,討論人工智能的治理就需要擺脫既往的思考習慣,必須基于治理與技術同步的相關體制機制研究,探索基于“自主性和不透明性”治理的底層邏輯:AI不是簡單的技術工具,而是在受人類大腦啟發基礎上開發的具有智能特征的物種,管理好人工智能是社會治理的重要內容和基礎性工作。
未來,大模型實體化、垂直化,具身智能社會化將會涌現,堅持以人為中心的人工智能發展,使人類成為AI培訓師、引導者,實現人機良性互動將成為人工智能治理的核心問題。因此,人工智能的治理是技術與制度、體制機制、社會文化的發展進化和適應過程。
多元文化背景下的人工智能價值對齊
經濟觀察報:你曾提到多元文化背景下的人工智能價值對齊,為什么我們要關注這個問題?
丁元竹:世界文化是多元的,這是人類社會特有的現象,各種文化間的沖突在人工智能出現前就時有發生。這種文化的多元性也影響到了人工智能,例如程序員都有自己的價值取向,所以在參數設定上、向量設計中就設計進去他們的價值理念。再如來自不同國家的大模型有屬于自己國家的文化價值認知,在中國,點頭表示同意,搖頭表示不同意,但是在印度文化里面,點頭表示不同意,搖頭表示同意,在這種情況下,人與人工智能互動時會產生誤解。
人類需要的是超越自己的人工智能,還是需要協助人類提高自己福祉的人工智能?我認為是后者,成熟的人工智能既是技術飛躍,更是人類社會的認知延伸和合作助手,它具備的核心特征將涵蓋技術、倫理和社會。
成熟的人工智能本身具備自主性,在不依賴人的情況下可以對系統做出改變,甚至逃避人類。所以,我們需要關注多元文化背景下的人工智能價值對齊,讓人工智能價值和人類機制、人類需求對齊,讓人工智能成為人類福祉的一個工具。隨著人工智能技術快速發展,價值對齊不僅關乎技術安全,更涉及社會、倫理和哲學等深層邏輯。
經濟觀察報:不同文化背景下的沖突歷來存在,這種人工智能價值對齊也會有不少難點,怎么去實現對齊是需要合力解決的問題。
丁元竹:價值對齊為什么如此困難?是因為人類價值觀的多元性與矛盾:不同文化對“公平”“自由”有著自己的理解和定義。人工智能價值對齊不僅是對技術的挑戰,更是對文明存續的考驗。人工智能造福人類的關鍵在于把價值對齊視為一個持續過程,而不是一次性的解決方案,如盡管人們視通用人工智能的出現不可避免,但通用人工智能發展不僅取決于大模型技術,也取決于機械技術進化。
回到怎么對齊的問題上,由于不同文化、族群、群體之間對“公平”“正義”的定義和理解存在著差異,價值對齊需要解決在多元文化和多元價值觀中尋求共同價值的共識,避免算法歧視或偏見。解決好這個問題,需要所有利益相關方的參與協作,需要科學家、技術專家、社會學者、人類學者、倫理學者、政策制定者及公眾共同制定對齊標準,還要建立動態反饋機制,通過用戶反饋和問責審計不斷校準人工智能的行為。
人工智能價值對齊是人類社會的“鏡像”——它要求人們在智能時代重新審視自身的價值觀體系。唯有實現技術迭代、倫理深思和公眾參與的結合,才能構建既強大又可控的人工智能未來。從長遠看,解決人工智能的可靠性、可解釋性、數據偏見等問題需突破認知科學、生命科學、能源效率(如降低算力依賴)、人機協作等領域的問題。如果以“通用人工智能”或“超級人工智能”為標準,目前的人工智能技術確實不成熟。
人工智能如何影響社會秩序與結構
經濟觀察報:人工智能的普及與進步將自動化更多的人類工作,你認為這會對人類社會現有的用工秩序和社會結構帶來沖擊嗎?
丁元竹:人工智能對就業市場的沖擊也是人們最為關注的議題之一,我認為其替代人類工作的速度和范圍或許會遠遠超過以往任何一次技術革命。目前看,具有高替代風險的崗位是那些規則明確型的工作,諸如制造業中的裝配線工人、會計流程中的自動化報表人員、法律工作中的合同審核人員等。
具有中等替代風險的崗位包括部分創意工作,比如像廣告文案人員、平面設計、新聞寫作、音樂作曲,以及個性化輔導等。那些情感互動性高或復雜性程度高的決策工作,諸如心理咨詢師、高級管理人員、社會工作者、園藝師、養老護理人員等目前被替代的可能性和數量或許不會太大。比爾·蓋茨認為,醫生和教師等職業將被AI取代,但軟件開發者(主要指發現和修復錯誤、優化算法等)、生物學家和能源專家有望幸存。
不容樂觀的是,那些被替代的流水線工人或文員很難快速轉型為人工智能訓練師或機器人維護員,行業轉型并非易事,2022年,美國僅54%的失業者成功轉入新行業。
經濟觀察報:我們需要為人工智能帶來的這種替代而焦慮嗎?
丁元竹:從過去的經驗來看,一個領域的工作被替代,會產生其他領域的就業崗位來。比如大模型訓練約1萬塊H100的算力中心,每天耗電花費需要75萬美元,差不多相當于一個中等城市的電力支持,那么新能源、核能等領域的就業崗位就會相應發展起來。
對此,政府有關部門需要及早預測,制定支持勞動力轉型政策,例如,編制再培訓和終身學習計劃等,甚至需要人工智能企業與政府一道探索全民基本收入等政策,應對失業或就業不足等潛在風險。
經濟觀察報:在互聯網時代,摩爾定律和互聯網效應從底層邏輯上加劇了財富向少數人手中聚集。那么在人工智能時代,會加劇社會財富甚至社會關系的不平等嗎?
丁元竹:通過提供人工智能生成的內容、產品或服務,企業可以探索新的收入來源和商業模式。隨著人工智能技術的發展,它正成為科技領域日益重要的一部分。那些忽視人工智能和機器學習的企業有可能在技術創新方面落伍。
眼下,大型科技公司競相選擇生成式人工智能作為核心業務向其他領域拓展或者發展自己的人工智能,例如,蘋果、亞馬遜和 Meta 都在嘗試將機器學習融入自己的企業運營。各行各業也都在加速利用人工智能技術推動創新、提高效率和增強用戶體驗。問題是,這樣的拓展會不會造成財富的更加過度聚集,甚至出現較互聯網時代更為凸顯的贏者通吃現象呢?
人工智能時代的新型文明觀
經濟觀察報:你覺得當下的人工智能迎來“奇點時刻”了嗎?
丁元竹:我既不是技術保守主義者,也不是技術激進主義者和人文社會焦慮者。總體來看,人工智能技術還不太成熟。
盡管人工智能在過去十年中取得了不可思議的進展,但很多研究仍處于起步階段,尤其是機器人技術,這項技術是出了名的難,即使在深度學習普及的時代,機器人技術的發展步伐也相對緩慢。
一是從技術發展階段性看,當前的人工智能在抽象推理、常識理解、情感表達、自我意識、創造性思維等方面還遠未達到人類的水平。例如,大語言模型會生成文字流暢但邏輯錯誤的答案,無法真正理解上下文和真實的語義。大模型的準確性依賴高質量數據,在面對數據資源稀缺、數據偏差或動態變化的環境時,大模型表現出極大的不穩定性,這種情況也出現在醫療診斷、復雜決策等過程中。二是從應用場景看,目前部分領域的人工智能應用已高度成熟。人工智能在特定任務上已經超越人類,如圖像識別,包括醫療影像分析、語音識別、圍棋對決、推薦系統(包括電商、短視頻)等。許多企業通過人工智能優化業務流程,這類“窄人工智能”技術已成熟到可以規模化和落地程度。有些大模型雖然不盡完美,但可以成為生產性工具,進入生產過程和市場領域。三是期望與現實之間存在差距。公眾對人工智能的認知時常被媒體夸大,造成一定程度的技術迷茫。技術發展快于法律和倫理框架的建設加劇了人工智能的“不成熟”感覺。
技術表現接近“人類水平”的說法本身,會讓人覺得是臆想,甚至是海市蜃樓。人類的能力維度是豐富多樣的,遠非任何單一指標所能衡量。但我們的缺點和優點一樣具有啟發性。只有更好地了解和認識人類自身,才能更好地認識人工智能。人的感知能力雖然有種種局限,但與機器截然相反。我們從整體上看待世界,不僅能識別世界的內容,更可以進一步理解不同事物之間的關系、意義、過去和未來。迄今為止,人類對自身的認識仍然存在諸多空白。
經濟觀察報:那面對人工智能的逐漸“成熟”,社會文明會發生怎么樣的變化?
丁元竹:人們總是在短期內高估了技術發明,而在長期上忽視了它的價值。尤其是在人工智能技術連連迭代的時候,長期主義尤為重要。如果在早期就認識了問題所在并加以跟蹤,比技術逐步成熟并深深嵌入體制機制后再進行治理會付出更少的治理代價。
人類正站在人工智能時代的新的門檻上,有望達到前所未有的文明水平,人工智能發展已經勢不可擋,我們要開創人工智能時代的新型文明形態。這就需要培育人文社會科學家與科學技術人員之間密切合作的文化,這種文化要求人文科學家要深度了解科學技術發展的特點,科學技術人員要深度了解人文社會科學的基本原理,人文科學家與社會與自然科學家之間要達成默契:大家互相接納、共同配合。
經濟觀察報:開創人工智能時代的新型文明形態,當下急迫嗎?
丁元竹:必須從現在起培育人類與機器之間的默契與配合的文化,這種文化是新的人類文明和智能文明時代的文化。
人工智能時代的合作,不僅僅是科學技術人員的事情,也是人文社會科學人員的事情,更是全社會的事情。當全體社會成員把自己的未來和命運與人工智能技術開發結合起來時,大家才會產生一種自豪感、安全感,人類才會有著更好的未來,這正是新的文明形態所需要的核心價值。
人工智能更聰明后面臨的未來風險
經濟觀察報:人工智能還在繼續高速發展,你如何看待未來人工智能高度成熟后會面臨的風險?
丁元竹:對于人工智能的未來,人們態度各異。有人認為,如果人工智能無法與人類價值觀、倫理規則和社會大多數人的利益保持一致,會引發個體權利受到侵害,甚至造成人類文明存亡的嚴重危機。的確,人工智能正在迅猛發展,前Open AI研究員丹尼爾·科科塔伊洛團隊發布了76頁“AI 2027”報告,預測通用人工智能將在2027年中期實現;報告描繪出從2025年最貴AI誕生到2027年Agent-5滲透政府決策的發展路徑,預計AI將快速超越人類智能;研究團隊預測超人AI的影響將超過工業革命,但部分專家質疑這種預測缺乏科學依據且過于極端。
有關人工智能未來的風險可以歸結為目標錯配問題。人工智能根據設定目標嚴格預設指標,但它無法理解人類價值觀的復雜性和模糊性。人工智能軍事系統或許會擅自升級沖突,如無人機做出誤判,視無辜的平民為威脅目標并發動攻擊。超級人工智能企業通過算法壟斷定價權,操縱市場,損害消費者利益。美國COMPAS司法系統對黑人被告給出“再犯罪風險更高”的誤判,強化了種族之間的偏見,甚至引發種族之間的沖突。算法的個性化推送制造了“信息繭房”,造成社會輿論的極端化和社會矛盾加劇。
過度和長期依賴人工智能會導致人類判斷力、思考力退化,如飛行員會因長期使用自動駕駛技術造成駕駛技能生疏,在遇到處理緊急情況時措手不及。人工智能生成內容會損害人類原創文化及其多樣性。
經濟觀察報:除了會冒出更多風險,也會有積極的方面。
丁元竹:人工智能將會是人類的最后一次技術革命,會改變現有的教育形態、科研形態等等。如前面所說,人類到目前為止并沒有解釋自己的精神世界、內心世界是怎么形成的,對人工智能的研究會讓人類反過來更了解自己。
經濟觀察報:你是一名教育者,怎么看待人工智能對人文社會科學教育的沖擊?
丁元竹:一旦出現世界模型和數以萬計的具身機器人與人類生活在一起,人文教育事業必將產生深刻變革。未來情境下,世界模型具備經驗學習能力、具身機器人廣泛融入人類社會、人機文明新形態形成,人工智能社會學理論架構的搭建需要突破傳統范式,構建一個動態適應、多維度協同的跨學科框架。
(作者 馮雨晨)
免責聲明:本文觀點僅代表作者本人,供參考、交流,不構成任何建議。
馮雨晨
關注芯片、云計算、半導體及硬科技領域
郵箱(fengyuchen@eeo.com.cn)或微信(Narrenschiff97)找到我
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.