文/陳根
我們今天看到人工智能已經(jīng)在知識層面超越了我們大部分的人類,并且對于沒有相當?shù)闹R積累,以及不具備跨學科知識的人來說,今天已經(jīng)不是人工智能的對手。或許很多人,尤其是一些博主,正在為自己可以利用人工智能進行創(chuàng)作,進行寫稿而開心,但他們卻絲毫沒有感到一種危機,那就是個人信用的崩塌即將到來。
為什么會這樣說呢?原因很簡單,人工智能到今天為止,最大的困境就在于機器幻覺,也就是胡編亂造。當然,由于人工智能擁有了龐大的語料庫,以及人類設(shè)置的強行編造的能力,所以它會根據(jù)用戶指令完成編造,但它不對編造的內(nèi)容正確與否付責任。
而對于在所涉及的專業(yè)領(lǐng)域缺乏基本知識的情況下,面對人工智能所編造的內(nèi)容,通常是難以鑒別,甚至還會覺得這些內(nèi)容寫的頭頭是道。但當有一天,被網(wǎng)友發(fā)現(xiàn)內(nèi)容存在著胡說八道的時候,個人的信用與形象就會跌落到司馬夾頭一樣的境地。
同時,隨著大語言模型的出現(xiàn),目前已經(jīng)出現(xiàn)一種危機,并且這種危機有趨勢化。那就是人類的閱讀、思考、學習的能力開始喪失了。如果人類社會過度的依賴于人工智能產(chǎn)生知識的時候,最終人類將會淪為機器愚弄下的產(chǎn)物。
原因就在于,從目前的技術(shù)發(fā)展趨勢來看,人工智能要想徹底解決機器幻覺的問題,幾乎不可能。如果機器幻覺不能徹底解決,哪怕幻覺降到了0.1%,也就是每1000個字的編寫中亂編一個字。當數(shù)以億計的人涌入使用,并且每天產(chǎn)生的內(nèi)容數(shù)以億的N次方計算,疊加的錯誤在一天之內(nèi)就是一個驚人的數(shù)據(jù)。
那么人工智能如果不斷的再通過自我學習,自我強化的情況下,這種錯誤就會被累積放大。這個時候,當人類的知識庫被人工智能的知識庫所取代之后,對于人類來說,我們將會進入一個空前的災(zāi)難,那就是知識的無真相時代。
當我們在為人工智能時代的到來而狂歡的時候,我卻看到了人類即將面對的可怕災(zāi)難,一場人類知識與認知的災(zāi)難即將到來。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.