今天上午確實是給W君逗樂了,但細琢磨了一下不應該樂的。
原因基于以下:
劉慈欣真正的硬科幻作品不多,即便是《詩云》這種很不錯的題材,其實也是阿根廷的小說家博爾赫斯的《通天塔圖書館》的另一種表述形式罷了。
《詩云》寫的是一個高度發達的外星文明創造的,目的是生成和存儲宇宙中所有可能的詩歌,涵蓋每一種語言、風格和表達方式。這個系統不僅能創作,還能理解和欣賞詩歌的美感,試圖探索宇宙中美的極致。然而,故事揭示了這種追求的局限性:即使窮盡宇宙的計算能力,真正的藝術創造力和人類的情感深度仍然難以被完全模擬或取代。
而《通天塔圖書館》則寫的是一座無限圖書館,藏書囊括了所有可能的字符排列,從圣典到胡言亂語應有盡有。讀者們日日沉浸其中,試圖找出“真理之書”,卻往往在文字的深淵中發瘋、死亡。
就在今天上午,W君看到了這個故事的另一面:
從很多人都不知道的是羋平才是屈原這件事上來看,屈原的老婆姓什么本就不是一件重要的事情。
好,那么現在我們來說說AI,重點就是大家十分篤信智能的基于生成式的“大語言達模型(LLM,Large language model))”到底是個什么東西。
首先,AI并不智能,尤其是生成式大語言模型更不智能。如果大家看過電視劇《西部世界》其中有一個橋段完美的詮釋了生成式大語言模型的工作原理。
當妓院老鴇梅芙被帶回實驗室進行維護的時候,她驚奇的發現在說話之前,自己要說的單詞被系統從一大堆的候選詞中甄選出來。
這其實恰恰是大語言模型的精髓所在——用最合適的概率來決定下一個要輸出的詞匯(Token)是什么。
所以,在大語言模型領域中,我們通常以為AI在“思考”,但真實的情況是,它只是在權衡“哪個詞更像是人類此刻該說的話”。你以為它在推理,其實它只是算概率;你以為它有主張,其實它只是在選擇“下一句說什么最順”。
而這一切,都是基于卷積神經網絡技術的一次次應用和迭代。當然了,這些并不是今天的重點。
重點是人類的原始文本,都會送入AI中進行訓練和學習,當這些語料信息被污染了會怎樣?
其實,結果大家已經看到了——屈原的老婆成了屈臣氏。
1932年,窒素株式會社在日本熊本縣水俁市的化學工廠生產氯乙烯與醋酸乙烯,其制程中需要使用含汞的催化劑。該工廠為節省成本,將未經處理的含汞毒廢水在完全沒有任何化學過濾的情況下排入水俁灣,這些含汞的劇毒物質流入近海并被魚蝦所吸收,進而在生物體內轉化成甲基氯汞與二甲汞等有機汞化合物。
當人類捕食海中生物后,甲基汞等有機汞化合物進入人體,被腸胃吸收、造成生物累積,隨后侵害人體腦部和身體的其他部分。
記錄表明1956年4月21日開始第一個水俁病患者小女孩田中靜子被確診,出現了關節變形、渾身抽搐的癥狀,在1960年,日本政府正式將“甲基汞中毒”所引起的工業公害病定名為“水俁病”。
2014年4月,美國密歇根州弗林特市,在金融危機期間為了降低用水成本,將市政水源由休倫湖和底特律河改為了弗林特河,由于缺乏腐蝕抑制劑,導致老化管道中的鉛滲入供水系統。致使超過10萬居民飲用和使用超標的鉛污染水。
1961年至1971年間,美國軍方在越南戰場上大規模噴灑一種名為“橙劑”(Agent Orange)的化學除草劑,號稱為了“破壞敵方的遮蔽與糧食供應線”,實則是一場徹底的生態屠殺。橙劑在釋放后導致越南雨林植物大面積的樹葉脫落,在戰時越南的游擊隊就很難隱匿在叢林中。但橙劑中的二惡英則永遠的留在了越南的雨林中。時至今日越南依然有大量的兒童被污染所累。
這些都是我們能看到的污染事件,它們傷害的是身體、土地、水源和子孫后代的健康。但今天,有一種看不見的污染已經悄然開始釋放,并迅速彌漫在整個互聯網的語言之中。
它沒有顏色,沒有氣味,也不會讓你一夜間倒下。它更狡猾、更緩慢、更徹底地在摧毀我們每一個人最重要的能力:判斷、理解與分辨真偽的意識系統。
這就是意識污染。現在已經看到AI的水俁病了,或者是“屈臣氏病”。我們喂給AI什么,AI就學習什么,在適當的時候,AI會根據概率來反饋給我們一些結果。但如果我們喂給AI的東西是污染過的,例如一大堆的互聯網找樂段子、一大堆的諧音梗,一大堆錯誤的認知,你覺得AI會有判別能力嗎?其實沒有,在AI的視野里,一切內容都是詩云中的文字隨機組合,只不過有一些組合概率大一些,有一些組合概率小一些,AI是照單全收的。喂的段子多了,AI自然也就“弱智”了,還沒有一個AI可以真正的理解“屈原老婆姓陳”和“屈原老婆姓李”的本質區別,也無法判斷誰對誰錯,但三人成虎,很顯然“屈原老婆姓陳”更具備傳播效率,被更多的網頁、文章提及,于是“姓陳”就在概率上更占優勢。
最終,AI就會更加偏遠向于給你輸出“姓陳”的答案。
檔AI吸收了錯誤觀點和錯誤信息——AI按照概率突出了錯誤信息反哺人類,在意識的污染上已經形成了完美的閉環。今天我們會敏銳的察覺到AI的智障行為,作為一個笑話來看,但最終,在歷史的某一個時刻,我們還真可能認可“屈原的老婆姓陳”這樣的荒謬設定。
現在,咱們能看出“屈原的老婆姓陳”是一個笑話,但20年-30年之后呢?反正AI認為是對的,最符合概率的輸出給大家,不斷的灌輸不斷的給人類肉身大腦反復清洗,到時候真會蹦出一個大學教授告訴你,小時候他在AI上提問,就是這樣的答案——“屈原的老婆姓陳”,最終歷史的真相就毀在了諧音梗的段子上。
說實在的,段子少一點為好,起初制造環境污染的那些罪人無非圖錢、圖利、圖方便,而現在制造意識污染的人其實也是非圖錢、圖利、圖樂子,沒啥不同。
用不了10年,大家可能就會追求所謂的“有機信息”了……
“意識污染”本質上是一種評價系統的崩塌。在人類文化的演化中,語言不僅是交流工具,更是價值、真理與美的載體。傳播的本質并非信息的搬運,而是意義的傳遞與確認。然而,在生成式AI的訓練機制中,語言被還原為“拼接概率”,內容被削弱為“格式匹配”。當海量低質、碎片化、娛樂化語料被不斷輸入模型,AI便開始學會“如何說得像樣”,卻不知“何為對錯”。這種從算法出發、繞過思想、直達表達的路徑,最終讓人類在反復接受AI輸出中喪失分辨能力,從而形成語言邏輯上的污染,文化認知上的退化,集體意識中的誤導閉環。
其實和你用含磷洗衣粉就是污染環境一樣,當你轉發點贊一些無厘頭的內容讓它們獲得更大的傳播時,你正在污染意識。
看到這里,你覺得自己沒被“意識污染”嗎?那么“垂死病中驚坐起”下一句是啥?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.