2025年3月,美國依隆大學(Elon University)“暢想數字未來中心”(Imagining the Digital Future Center)發布了調研報告《人工智能的近距離接觸:人與語言模型日益人性化的交互方式》(Close encounters of the AI kind: The increasingly human-like way people are engaging with language models)。該報告基于對全美500名大語言模型(LLM)用戶的代表性調查,深刻揭示了自ChatGPT問世以來,人工智能在美國社會驚人的滲透速度、多元化的應用場景,以及由此引發的人們在認知、情感與行為層面的深刻變革。研究不僅精準量化了大語言模型對用戶生產力、創造力的影響,更深入剖析了人機交互中浮現的“擬人化”特質、相伴而生的倫理隱憂與其他負面效應。啟元洞見編譯整理了其中的核心內容,以供讀者參考。
核心速覽
報告首先指出,在美國成年人中大語言模型的普及率已高達52%,其被接納速度之快,在現代科技史上堪稱罕見。用戶群體也呈現出顯著多樣性,盡管年輕、高學歷和在職群體的使用更為普遍,但技術已廣泛觸及不同族裔背景與收入的人群。特別值得注意的是,西班牙裔(66%)和非裔(57%)的接納率已超過白人(47%)。
在應用層面,個人化、非正式學習(51%)成為首要驅動力,其比例是工作用途(24%)的兩倍有余。人機關系正呈現出日益“擬人化”的趨勢:65%的用戶曾與大語言模型進行過口頭對話,近半數(49%)用戶認為大語言模型比自己更聰明。
盡管用戶滿意度高達76%,且超過半數(54%)的人認可其對生產力的提升,但技術帶來的光環與陰影并存。50%的用戶承認使用大語言模型滋生了惰性,35%的用戶認為帶來了“作弊感”與挫敗感。更值得警惕的是,23%的用戶因依賴錯誤信息而出現過重大失誤,21%的用戶感到被模型操縱。這些發現揭示了人類與人工智能深度互動背后的復雜心理與社會效應。
主體報告
一、用戶圖景:誰在用,如何用?
大語言模型的崛起,堪稱一場歷史性的技術普及浪潮。在短短兩年半內,半數美國成年人已成為其用戶。
如圖1數據所示,18歲至29歲年輕群體的接納率高達77%,而不同收入階層的用戶比例差異微小,表明大語言模型已跨越了早期技術接納者的范疇,開始全面融入不同社會經濟背景的群體之中。其在少數族裔中的高普及率,也預示著其在彌合數字鴻溝方面可能扮演的角色。
圖1 半數美國成年人使用如ChatGPT、Gemini、Copilot或Claude等人工智能大語言模型(按人口統計特征劃分)
在市場格局(圖2)中,ChatGPT憑借72%的滲透率占據絕對優勢,谷歌的Gemini(50%)和微軟的Copilot(39%)緊隨其后。過半(58%)用戶曾嘗試兩種以上模型,反映出市場競爭激烈,用戶樂于探索。
圖2 最常用的大語言模型(用戶使用過工具的百分比)
在用戶粘性方面,圖3顯示,已有三分之一(34%)的用戶將大語言模型在日常生活中每日使用。盡管如此,用戶整體仍處于學習曲線的初級階段,僅16%的調查者自評為“高級”用戶,顯示出巨大的技能提升空間。
個人探索是驅動大語言模型使用的核心引擎。無論是用于獲取知識(68%)、激發靈感(55%),還是純粹為了娛樂(60%),個人化需求均遠超工作(52%)與學業(36%)等功利性目的。
圖3 用戶使用大語言模型的主要目的
具體的應用場景(圖4)從信息檢索(68%)到內容創作(42%創建郵件,38%撰寫演示文稿)再到生活規劃(34%),幾乎無所不包。一個值得關注的現象是,已有近四分之一(23%)的用戶利用大語言模型查詢熟人信息,18%的用戶查詢自身信息,這在個人數據隱私與信息真實性方面敲響了警鐘。
圖4 人們使用人工智能大語言模型完成的具體任務
二、 模型的“心智”:
智能、對話與擬人化特質
報告還深入探討了用戶在與大語言模型互動時所感知的“類人性”特質,這些發現是理解人機關系演變的關鍵。
用戶對模型的看法呈現出有趣的分化情形,但總體傾向于高估模型的智能水平。近半數(49%)的用戶認為大語言模型“至少比自己聰明一點”,其中26%的用戶甚至認為“聰明得多”。這種認知上的“仰視”,可能深刻影響用戶對模型輸出結果的批判性思維能力。
圖5 大語言模型用戶對其所用人工智能系統的智能水平看法
大語言模型的擬人化特征在對話交互中體現得淋漓盡致,65%的用戶曾與模型進行過逼真的語音對話。甚至更進一步的話,用戶開始從模型中感知復雜的人格特質。
如圖6所示,模型更多被認為展現了自信(57%)、樂于助人(52%)等專業且積極的形象。同時,用戶也感知到了幽默(32%)、同情(22%)乃至希望(24%)等情感信號。雖然諷刺(17%)、憤怒(8%)等負面特質占比較低,但其存在本身已值得警惕。
圖6 用戶認為大語言模型展現出的人格特質范圍
用戶不僅將大語言模型視為工具,更在潛意識中賦予了其社會屬性。如圖7所示,合計高達81%的用戶認為模型能提供個性化答案,69%的用戶認為模型能從互動中學習。尤為引人注目的是,近七成(69%)的用戶認為模型展現了“思考和推理能力”,另有43%的用戶認為其在進行“道德判斷”。這種將隨機模型輸出解讀為意向性行為的傾向,是未來人機關系研究的核心課題。
圖7 大語言模型用戶認為模型有時具備的類人社交屬性
三、影響與挑戰:
賦能、風險與責任
大語言模型在提升效率方面表現卓越。54%的用戶稱生產力得到改善,50%的用戶認為其增強了學習新技能的能力。在重大生活決策上,大語言模型也開始扮演顧問角色,尤其是在職業發展(41%)和健康咨詢(37%)方面。
然而,賦能的背后是深刻的隱憂。如圖8所示,半數用戶體驗到“懶惰或走捷徑”的心理,超過三分之一的用戶感到“作弊”或“過度依賴”。更為嚴峻的是,這種依賴帶來了切實的風險,23%的用戶因錯誤信息做出過錯誤決策,21%的用戶感到被操縱或隱私受損。
圖8 用戶描述使用大語言模型時的負面體驗
面對人工智能帶來的倫理與社會挑戰,用戶將主要責任指向了技術的創造者。在透明度(58%)、偏見控制(49%)和隱私保護(43%)等核心議題上,多數人認為模型開發者應負首責。然而,在環境影響等新興議題上,公眾意見分散,對政府監管的呼聲(33%)與對企業自律的期望(30%)并存,體現出治理框架的缺位。
圖9 關于誰應該為大語言模型相關關鍵問題負主要責任的用戶看法
四、遠景展望:
機遇與風險的交織
用戶對未來的預期充滿了矛盾,恰如一枚硬幣的兩面。如圖10所示,他們既對技術突破滿懷期待——62%的用戶預見其將帶來重大科學與醫療進步,又對社會失業(59%)、社會孤立(63%)、智能超越(53%)乃至人工智能失控(40%)等潛在危機深感不安。
圖10 大語言模型用戶認為模型帶來的長期影響
(未來十年內極可能或較可能發生)
這些復雜且矛盾的預期,清晰地勾勒出公眾在迎接一個與人工智能深度共存的未來時,既興奮又審慎的集體心態。如何最大化其益處,同時構建有效的護欄以規避風險,已成為整個社會必須共同面對的緊迫議題。
免責聲明:本文轉自啟元洞見。文章內容系原作者個人觀點,本公眾號編譯/轉載僅為分享、傳達不同觀點,如有任何異議,歡迎聯系我們!
轉自丨啟元洞見
研究所簡介
國際技術經濟研究所(IITE)成立于1985年11月,是隸屬于國務院發展研究中心的非營利性研究機構,主要職能是研究我國經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展態勢,為中央和有關部委提供決策咨詢服務。“全球技術地圖”為國際技術經濟研究所官方微信賬號,致力于向公眾傳遞前沿技術資訊和科技創新洞見。
地址:北京市海淀區小南莊20號樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.