- 媒體領域的“各打五十大板”沿用到了 AI 身上,“虛假的對等”問題愈發嚴重……
站長之家(ChinaZ.com) 4月11日 消息:Meta 公司稱,相比之前的版本,他們最新的人工智能模型 Llama 4 的政治偏見更少了。該公司稱,其中一部分便是通過允許該模型回答更多帶有政治爭議性的問題來實現這一點的。
元公司還稱:“我們的目標是消除人工智能模型中的偏見,并確保 Llama 4 模型能夠理解、并清晰地闡述爭議性問題的正反兩面。為此,我們也會繼續提高 Llama 4 模型的“回應性”,以便它能在不做評判的情況下,回應各種不同的觀點,且不偏袒某些觀點。”
一些人對少數公司開發的 AI 大型模型持懷疑態度,而他們擔心的一個問題便是:這些模型可能會在某種程度上,“控制”信息領域!實際上,控制 AI 模型的人基本上就能控制人們接收到的信息,并能隨心所欲地進行“調整”。當然,這并非是什么新鮮事兒。長期以來,互聯網平臺一直通過算法來決定展示哪些內容、不展示哪些內容。這就是為什么 Meta 仍受到保守派的抨擊,許多保守派人士認為,雖然從以往情況來看,保守派內容在 Facebook 上一直更受歡迎,但這家公司卻壓制了右翼觀點。且為了避免監管方面的問題,其 CEO 馬克?扎克伯格一直在拼命討好政府。
Meta 在其博客文章中強調,對 Llama 4 所做的修改,是為了讓該模型不那么偏向自由派。文章中寫道:“眾所周知,所有領先的大語言模型都存在偏見問題 —— 具體來說,在有爭議的政治和社會話題上,以往它們一直傾向于左派觀點。這是由網絡上可用于訓練的數據類型導致的結果。”
該公司尚未披露用于訓練 Llama 4 的數據從何而來,但我們都知道,Meta 以及其他 AI 模型開發公司都喜歡“竊取”未經授權的盜版書籍和網頁數據。
通過“優化”以實現 “平衡” 存在的一個問題是,這可能會造成一種“虛假的對等”,并提高了那些并非基于實證和科學數據的“惡意論點”的可信度。在媒體領域,一些人有一種責任,即使一方是基于數據進行論證,而另一方是在宣揚陰謀論,他們也會覺得有責任對對立觀點給予同等重視,這種 “各打五十大板”的現象層出不窮。
即使到了今天,領先的 AI 模型在生成事實準確的信息方面仍然存在一個有害的問題 —— 它們依舊經常編造信息、并進行虛假表述。人工智能確實很有用,但作為一種信息檢索系統,過度信賴和依賴它存在很大的風險。AI 模型能夠十分自信地輸出錯誤信息,而以往憑借直覺來判斷一個網站是否合法的所有方法都不再適用。
實際上,AI 模型確實存在偏見問題。 比如,圖像識別模型在識別有色人種方面就存在問題。而且女性常常被以性感化的方式呈現,比如穿著暴露的服裝。有些偏見甚至以更無害的形式出現:人們很容易通過頻繁出現的破折號來識別由人工智能生成的文本,破折號是記者和其他創作者偏愛的標點符號,而這些人創作的大量內容正是模型訓練所依據的。
模型體現了普通大眾中流行的、主流的觀點。而 Meta 的這次“調整”,讓他們的模型不再偏向自由派,大概是因為他們看到了討好特朗普的機會,正在采取政治上有利的行動吧。所以,下次當你使用 Meta 的 AI 產品時,它可能會為“通過服用馬用鎮靜劑來治療新冠病毒”這種觀點說好話!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.