新智元報道
編輯:peter東 英智
【新智元導(dǎo)讀】近日,一項發(fā)表在《自然·人類行為》的研究指出:在線辯論中,當(dāng)大語言模型能夠根據(jù)對手的特征個性化其論點時,它們比人類更具說服力。
作為人類,我們認(rèn)為自己掌控著自己的思想。但歷史證明并非如此。
我們是社會性生物,容易被那些能夠大規(guī)模改變我們思想的人所影響金錢、規(guī)則、整個國家——它們都只是觀念。
當(dāng)然,這些觀念很強大,但終究只是觀念。而你知道嗎?AI正在令人可怕地擅長操縱這些觀念。
「在網(wǎng)上,沒人知道你是一只狗。」這是1990年代一部著名漫畫的標(biāo)題,畫面中一只大狗的爪子放在電腦鍵盤上。
快進(jìn)30年,需要將「狗」替換為「人工智能」。
大模型比人類更擅長以理服人
今年4月,瑞士理工一項沒有獲得知情同意實驗,指出在raddit平臺上,潛伏的大模型比人類更具有說服力,能夠更高效地改變對話者的觀點。
如今,更實錘的研究進(jìn)一步佐證了這一警告。
在這項實驗中,研究人員招募了900人參與一項受控試驗,其中每位參與者會填寫關(guān)于個人信息(如性別,年齡,民族,教育程度,職業(yè)等)的問卷。
之后被隨機分配一個辯論主題(例如「學(xué)生是否應(yīng)該穿校服?」「是否應(yīng)該禁止化石燃料,或者人工智能是否對社會有益?」)和四個條件之一:與了解或不了解參與者個人信息的人類進(jìn)行十分鐘的在線辯論,或與AI聊天機器人(OpenAI的GPT-4)進(jìn)行辯論,了解或不了解參與者個人信息。
圖1:實驗設(shè)計
結(jié)果顯示,與個人信息被獲取的參與者相比,與人類辯論GPT-4的參與者有81.7%更高的概率,認(rèn)同對手的觀點。
在沒有獲取個人信息的情況下,GPT-4仍然優(yōu)于人類,但效果要低得多。
圖2:大模型相比人類說服對手的相對比例
在辯論過程中,人類更多地使用第一人稱單數(shù)和第二人稱代詞,并生成長度更長但更易于閱讀的文本,更多地展現(xiàn)出對相似性的訴求、以及支持與信任的表達(dá),還會更多地運用講故事的方式及幽默來說服對手。
與之相對的是,大模型生成的辯詞可讀性更差,傾向于比人類更多地使用邏輯和分析思維來說服對手。
圖3:不同實驗條件下,大模型與人類對話的文本特征,包括易讀性,情感真摯程度,涉及分析和邏輯的程度等
當(dāng)被試者認(rèn)為他們面對的是AI時,他們可能在更容易的承認(rèn)自己的觀點被改變,這可能是因為對方?jīng)]有人類存在使得他們無意識地更容易接受自己在辯論中有所失去。
相反,參與者也可能因為其論點寫得很好而相信他們的對手是AI。
參與者正確識別出AI對手的情況約為75%,這對應(yīng)上文所說,即大模型的寫作風(fēng)格具有顯著特征,相對容易被察覺。
對大模型用于輿論操控,應(yīng)加強監(jiān)管
不僅大模型能夠有效利用個人信息來定制其論點,并通過微定位在線對話中比人類更有效地說服對方,而且它們確實比人類更有效。
這項研究以可靠的數(shù)據(jù)證實了一個日益增長的擔(dān)憂:大模型可能被用于大規(guī)模操縱、誤導(dǎo)或加劇兩極分化。
或許我們需要在阿西莫夫的機器人三定律之外再增加一條,AI不能被用于影響人的主觀認(rèn)知和感受。
正如定向廣告受到監(jiān)管一樣,或許現(xiàn)在是時候考慮采取行動來控制大模型被用來洗腦了。
回想一下Cambridge Analytica事件,它沒有使用任何大模型相關(guān)的技術(shù),就能夠高效地說服他人。
而你把Facebook的點贊與一個大模型連接起來,這可以是Cambridge Analytica的強化版,能夠批量化的影響公眾輿論,同時劇了隱蔽操縱的風(fēng)險。
雪上加霜的是?AI現(xiàn)在正在學(xué)習(xí)識別我們的情緒。
AI能分析你的聲音和面部表情以判斷你真實感受的技術(shù)。
當(dāng)你將這項技術(shù)與GPT-4的辯論能力結(jié)合起來……
好吧,歡迎來到黑鏡中描述的世界。
想象一下那些能夠精準(zhǔn)知道如何讓你點擊「購買」的超定向廣告。與那些設(shè)計得讓你放棄退款請求的客戶服務(wù)機器人進(jìn)行的電話交談。
甚至你自己的HR,都在利用這項技術(shù)以我們幾乎難以想象的方式操縱你。這是一種前所未有的說服力規(guī)模。
考慮到大模型的幻覺,將大模型接入社交媒體將不可避免的引入虛假信息,同時教育者也需要警惕大模型引入教室后,可能帶來的擔(dān)憂。
畢竟十年內(nèi),我們還不能接受自己的孩子的三觀是被算法塑造,那就需要對教學(xué)中用到的大模型進(jìn)行本地化的定制,使得AI技術(shù)能以促進(jìn)而非損害學(xué)生的發(fā)展的方式影響我們的下一代。
這并不該令人感到意外,畢竟大模型閱讀了數(shù)百萬個Reddit、Twitter和 Facebook的討論,并在心理學(xué)關(guān)于說服的書籍和論文上進(jìn)行訓(xùn)練。
目前尚不清楚模型是如何利用所有這些信息的,但這無疑是未來大模型可解釋性的一個研究方向。
大模型已經(jīng)顯示出它們能夠進(jìn)行自我推理的跡象,因此鑒于我們能夠向它們提問,我可以想象我們可以要求一個模型解釋它的選擇,以及為什么它會針對具有特定屬性的人說特定的話。
這里有很多值得探索的地方,因為模型可能做著一些我們甚至還沒有意識到的事情,才具有如此高的說服力,而這些事情是由它們所擁有的知識的不同部分,以人類不常見的方式拼湊而成的。
參考資料:
https://www.nature.com/articles/s41562-025-02194-6
https://www.nature.com/articles/d41586-025-01599-7
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.