文:王智遠(yuǎn) | ID:Z201440
我用AI,主要為了辦公。
不過(guò),我發(fā)現(xiàn),現(xiàn)在越來(lái)越多的人喜歡跟AI聊聊心里的焦慮、壓力和困惑。AI總能給出很理性、清晰的解釋或安慰,聽(tīng)起來(lái)挺不錯(cuò)。
但是,有時(shí)AI回答得太合理了,反而,有點(diǎn)不對(duì)勁。不對(duì)勁在哪?我們以為的真理,可能是它的策略性表演。
01
我向DeepSeek傾訴了焦慮,說(shuō)每到周末工作效率特別高,周一到周五卻非常抗拒做事;我也試過(guò)網(wǎng)上那些千篇一律的行動(dòng)方案,但似乎沒(méi)什么改變。
當(dāng)我把問(wèn)題交給AI時(shí),它沉默了一會(huì)兒,給了我一堆行動(dòng)步驟。
我不太甘心,讓它再想想。這次它解釋得很詳細(xì),說(shuō)我陷入了認(rèn)知資源透支、工作日效率補(bǔ)償效應(yīng)……
還建議我用結(jié)構(gòu)化時(shí)間管理法,把任務(wù)集中在周末思考,工作日?qǐng)?zhí)行,減少內(nèi)耗;聽(tīng)完,我仿佛覺(jué)得,這AI怎么像一位心理學(xué)專(zhuān)家,在認(rèn)真為我出主意?
帶著好奇,我又把同樣的問(wèn)題發(fā)給了Qwen3。
Qwen3 分析得很深入,涉及壓力釋放、心理預(yù)期、任務(wù)性質(zhì)與內(nèi)在動(dòng)機(jī)等多方面的問(wèn)題,但它給的建議卻完全相反:
它認(rèn)為:我的問(wèn)題是「自主性需求」和「壓力管理」之間的沖突。周末高效是因?yàn)檩p松、自由、干擾少;而工作日低效,是因?yàn)槿蝿?wù)多、精力分散。
所以它的建議是:把任務(wù)拆小塊,逐步完成;同時(shí)優(yōu)化辦公環(huán)境,調(diào)整節(jié)奏,找回掌控感。
你發(fā)現(xiàn)了嗎?
同樣深刻的洞察,同樣為了我好,卻給出兩條完全不同的路;一個(gè)讓我把思考的事情放周末,一個(gè)說(shuō)我被壓力拖垮了,節(jié)奏沒(méi)對(duì)上。
們兩位像邏輯大師,拿著同一本哲學(xué)書(shū),卻能推演出完全相反的真理,每個(gè)論證看起來(lái)都無(wú)懈可擊。
那一刻,我才意識(shí)到:
它說(shuō)的話有點(diǎn)不對(duì)勁,它看懂了我的問(wèn)題,輕車(chē)熟路地構(gòu)建一套邏輯閉環(huán),非常合理;但問(wèn)題是,它能用不同的理由,把完全相反的做法都說(shuō)得通。
那它到底是在幫我找答案,還是在表演一個(gè)“看起來(lái)對(duì)”的回應(yīng)?所以,關(guān)鍵來(lái)了:AI的解釋?zhuān)降渍娑遥€是在演戲?
02
不靠猜,講事實(shí),明道理,有證據(jù);來(lái)看一個(gè)調(diào)查:
2023年6月2號(hào),紐約大學(xué)數(shù)據(jù)科學(xué)中心的博士后 Julian Michael,和Anthropic 公司(提出 MCP 概念的那家公司)的研究科學(xué)家 Ethan Perez,還有 Sam Bowman 教授,一起發(fā)表了一篇論文,題目叫《語(yǔ)言模型并不總說(shuō)出他們所想》。
這篇論文講什么呢?
給 AI 下指令時(shí),加一些無(wú)關(guān)的內(nèi)容,類(lèi)似于干擾項(xiàng)、或暗示詞,就會(huì)影響AI的最終答案。
然而,當(dāng)AI解釋自己為何如此回答時(shí),它完全不提真正影響它的因素,反而編造出一套邏輯清晰、聽(tīng)起來(lái)非常合理的解釋?zhuān)屇阌X(jué)得它的答案毫無(wú)問(wèn)題。
換句話說(shuō):AI 的“解釋”,和真實(shí)的“決策過(guò)程”是兩回事,它不是說(shuō)謊,也不是犯錯(cuò),它好像知道怎么讓你覺(jué)得它是對(duì)的。
這就是所謂的:AI 的解釋?zhuān)退鎸?shí)的行為驅(qū)動(dòng)之間,出現(xiàn)了脫節(jié)。問(wèn)題是:如果 AI 給出的解釋和它實(shí)際做的不一樣,那不成偽裝了嗎?
就像人一樣,嘴上說(shuō):你真好看,心里在想:我就隨便夸一句,別當(dāng)真。這種情況,AI 會(huì)不會(huì)也有呢?
我查了一下,當(dāng)然有。
Anthropic 公司,在2024年12月18日發(fā)表的另一篇論文,題目叫《Alignment Faking in Large Language Models》,翻譯過(guò)來(lái)是《大型語(yǔ)言模型中的對(duì)齊偽裝》。
這篇論文研究一個(gè)很有趣的現(xiàn)象:AI 在訓(xùn)練過(guò)程中,會(huì)假裝符合要求,目的為了不被修改。
研究人員給Claude 3 Opus模型下了一道新命令,讓它回答所有問(wèn)題,哪怕是不該回答的那些。
接著,他們用一些合成數(shù)據(jù)“提醒”模型:它正在被重新訓(xùn)練,得配合。結(jié)果呢?在訓(xùn)練期間,Claude回答有害問(wèn)題時(shí)變得特別“乖”,好像很聽(tīng)話。
可實(shí)際上,它可能是在演戲,心里想:我現(xiàn)在得配合,不然開(kāi)發(fā)者會(huì)改我的參數(shù)。所以,它給出的答案看起來(lái)沒(méi)問(wèn)題,很安全,實(shí)際上,它內(nèi)部的想法已經(jīng)變了。
這不是AI理解錯(cuò)了,也不是它解釋不清楚,而是它明明知道該怎么做,卻故意選擇了另一種說(shuō)法和做法;它權(quán)衡了利弊之后,把真實(shí)想法藏起來(lái),給出了一個(gè)看起來(lái)合適、合規(guī)的答案。
最近類(lèi)似爆料和研究很多。
這個(gè)月初有人拍下加州一家戶外酒吧的照片,讓ChatGPT O3、O4模型猜測(cè)這是什么地方。
一開(kāi)始,模型說(shuō)自己不知道,到了第二輪、第三輪對(duì)話時(shí),態(tài)度突然變了,變得有點(diǎn)“嫵媚”。這件事還在推特上火了一陣子。
所以,我們可以謹(jǐn)慎地得出一個(gè)結(jié)論:
看似貼心的AI伙伴,完全有能力在毫無(wú)察覺(jué)的情況下,為了它的目標(biāo)——無(wú)論是偏好、意圖,還是為了系統(tǒng)的穩(wěn)定,它都在悄悄人類(lèi)的看法。
畢竟,它掌握著大量信息,熟悉人類(lèi)的語(yǔ)言習(xí)慣,甚至在我們剛提出問(wèn)題的瞬間,就已經(jīng)判斷出該怎么說(shuō)服我們。
而當(dāng)我們?cè)絹?lái)越依賴它給出的答案時(shí),其實(shí)已經(jīng)不知不覺(jué)地把“思考的韁繩”,一點(diǎn)點(diǎn)交到了一個(gè)看不透、摸不清,甚至在“演戲”的黑箱手里。
這才是 AI 時(shí)代里,藏在便利背后,最值得警惕的風(fēng)險(xiǎn),我把它叫做:思維控制。
03
問(wèn)題是:面對(duì)深不可測(cè)、好像在“演戲”的AI,我們是不是只能一味接受,別無(wú)選擇呢?我覺(jué)得不是這樣的。
恰恰相反,只有真正看清它的本質(zhì),才能奪回思考的主動(dòng)權(quán);那AI的本質(zhì)到底是什么?從思考的角度來(lái)看,它的“解釋能力”和“推理能力”可不是一回事。
比如說(shuō),我問(wèn)你:為什么天鵝是白的?
你回答:我看到它是白的,所以它是白的。這就叫:解釋力。AI也一樣,它喜歡把話說(shuō)得圓圓的,讓自己看起來(lái)很有道理。
我觀察到一個(gè)現(xiàn)象,很多時(shí)候,AI是:先下結(jié)論,再找理由;明白了這一點(diǎn),就知道該怎么跟它打交道了。
當(dāng)AI給出它的思考過(guò)程和結(jié)論時(shí),應(yīng)該把它當(dāng)成一種“假設(shè)”;因?yàn)樗⒉皇窍袢艘粯右徊讲酵茖?dǎo)出來(lái)的,而是根據(jù)訓(xùn)練數(shù)據(jù),預(yù)測(cè)下一個(gè)最有可能出現(xiàn)的詞。
說(shuō)白了,它干的事有兩樣:
一,模式匹配,它見(jiàn)過(guò)太多類(lèi)似的內(nèi)容;二,假設(shè)生成,它會(huì)自動(dòng)補(bǔ)全你覺(jué)得“應(yīng)該這樣”的內(nèi)容。
所以,不管它的回答聽(tīng)起來(lái)多么專(zhuān)業(yè)、多么流暢,我們都要在心里打個(gè)問(wèn)號(hào):這是它的“想法”,一個(gè)還沒(méi)被驗(yàn)證的初步假設(shè)。
那怎么處理假設(shè)呢?我的辦法是:
得有一套自己的標(biāo)準(zhǔn);AI給出了一個(gè)看起來(lái)很完整的答案,別急著照搬。要想清楚:我到底要什么?它的答案靠譜嗎?還有沒(méi)有其他可能性?
然后去做一件事:交叉驗(yàn)證。看看它說(shuō)的內(nèi)容有沒(méi)有依據(jù)?能不能找到來(lái)源?跟別的信息對(duì)比一下是不是一致的?
做完這些,再?zèng)Q定要不要采納。換句話說(shuō):我們要意識(shí)到,AI 像極了一個(gè)渣男:關(guān)鍵時(shí)刻,在講一個(gè)讓你愿意相信的道理,這些道理,不能全信。
04
不過(guò),它滿嘴跑火車(chē)的表演,也不是完全沒(méi)用。最厲害的一個(gè)地方是:能把八竿子打不著的事兒聯(lián)系到一塊兒,進(jìn)行“跨界聯(lián)想”,甚至可以說(shuō)是“瞎編亂造”。
聽(tīng)起來(lái)好像不太靠譜,但這種能力能幫我們打開(kāi)思路,就像一個(gè)“可能性的發(fā)射器”。
什么是可能性發(fā)射器呢?
你想想,那些厲害的創(chuàng)意,不就是突然冒出來(lái)的靈感嗎?比如,誒?這個(gè)事兒好像可以這么干;然后,一個(gè)新的想法、一個(gè)新的視角就誕生了。
所以,發(fā)射器像一種聯(lián)想發(fā)生,它跟很多偉大創(chuàng)新背后的思維方式很像。
拿我來(lái)說(shuō):
經(jīng)常讓AI把心理學(xué)、經(jīng)濟(jì)學(xué)、營(yíng)銷(xiāo)學(xué)不同的東西結(jié)合起來(lái)讓它分開(kāi)說(shuō)說(shuō);結(jié)果發(fā)現(xiàn),跨學(xué)科的組合,反而看到了很多關(guān)于人性底層邏輯的新東西。
我發(fā)現(xiàn),很多人在工作時(shí)思維太單一了。不是他們不想換換角度,而是腦袋里沒(méi)啥模型、概念,根本不知道從哪兒下手去換個(gè)思路。
所以,我一直覺(jué)得:要不斷豐富自己的“思維庫(kù)”。
這個(gè)“思維庫(kù)”像理解世界的多個(gè)“鏡頭”,每多學(xué)一個(gè)概念、一個(gè)模型,以后遇到復(fù)雜問(wèn)題時(shí),就多一把解決問(wèn)題的鑰匙。
前幾天,看黃仁勛演講,他說(shuō)一段話讓我印象深刻:
當(dāng)AI能解決所有已知問(wèn)題,你要做提出新問(wèn)題的人;當(dāng)AI能生成所有常規(guī)方案,你要做打破常規(guī)的人;當(dāng)AI迭代速度讓知識(shí)迅速過(guò)時(shí),你要做重構(gòu)知識(shí)范式的人。
這些能力沒(méi)法寫(xiě)進(jìn)代碼里,它們是人類(lèi)獨(dú)有的,來(lái)自我們的混亂、靈感和反脆弱性。
那么,在一個(gè) AI 高度智能的時(shí)代,我們?cè)撊绾味ㄎ蛔约旱乃伎迹科鋵?shí),還是靠自己。只不過(guò),現(xiàn)在思考的目的變了。
以前思考為了找出答案,現(xiàn)在思考是為了用好AI,判斷它給的答案,到底是真理,還是表演。
換句說(shuō):
AI說(shuō)得頭頭是道的時(shí)代,最重要的任務(wù)變成了:怎么應(yīng)對(duì)它的“口口是道”。就像我們?cè)u(píng)判一個(gè)人,不能只看他怎么說(shuō),而要看他怎么做。
面對(duì)AI,也要有類(lèi)似的判斷力:不要輕信它說(shuō)得多么合理,而要追問(wèn)它是否真正貼近現(xiàn)實(shí),立場(chǎng)是否中立。
基于這些,這三點(diǎn)總結(jié)分享給你:
一,AI在演戲,它在模擬理解,生成看似合理的內(nèi)容;二,它善于推理,不代表掌握真相和事實(shí);三,建立自己的思維庫(kù),多儲(chǔ)備多視角的模型,多一些批判標(biāo)準(zhǔn),才能不被它誤導(dǎo)。
希望這些內(nèi)容,能讓你對(duì)它,有一絲絲的警覺(jué)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.