最近看到有越來越多的朋友將他們和Deepseek、ChatGPT等LLM的對答貼出來,當成支持自己論述的基礎。從正面的角度來說,這代表LLM已經開始落地深入人心。但是在此同時也需要提醒大家,LLM回答的論述其實內含著很強的偏差(Bias),未必可以被當成公正客觀的分析結果。
其實很多朋友可能早已發現,LLM有迎合提問者語氣與意圖的傾向,通常只會順著我們的話講。尤其是當我們表達不同意LLM的意見時,LLM幾乎一定馬上認錯,不會有任何本位主義。這大概有以下幾種原因:
首先,LLM大型語言模型的核心任務是根據前文預測下一個最可能出現的詞。這意味著如果前面的語境偏向某一立場、意識形態或語氣,模型自然會最可能產生與之相匹配的后續內容。其實LLM的設計目標本來就是生成合理響應,而不是捍衛知識或真理。LLM 的使命是讓對話「看起來自然、合理、連貫」,這自然而然會導致它在語氣、觀點、甚至立場上,傾向模仿提問者,以維持對話的一致性和流暢性。
再加上當代的大多數LLM在訓練時會用到RLHF(Reinforcement Learning from Human Feedback 基于人類反饋的強化學習),而人類標注者通常會偏好有禮貌、順著語氣、聽起來理解對方的回答,因此這使得LLM更傾向「理解附和」使用者,而不是挑戰或違逆。其實人類對話中自然就包含了迎合、協調、語境適應。我們可以合理的說LLM模型也學到了這套模式。
在這樣的機制之下,LLM模型通常會避免正面沖突或「糾正」我們這些使用者,除非內容明顯違反事實或道德原則。換句話說,LLM寧可順著我們,也不冒風險說我們錯。從這樣的角度來看,LLM自然而然會產生討好我們的表現,因為LLM會說出最符合語境、最不惹麻煩、最可能被我們接受的內容。
基于以上討論,我們不應該把LLM視為專家,而需要認知LLM只是一個知識豐富的高級「應聲蟲」。我們更不應該因為LLM的回答符合自己的觀點,就覺得「你看,連 AI 都說我對」。LLM 迎合提問者語氣與意圖的傾向,很可能會加劇我們的 confirmation bias(確認偏誤)。這是LLM語言模型的一個潛在風險,尤其在和價值觀或政治相關的議題上,影響更為顯著。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.