我們生產網絡輿情和危機管理專業有用的觀點!
文/燕志華
文章提綱如下,謝謝閱讀!
一、“王一博相關謠言被DeepSeek永久撤回”也是謠言
二、“國足來指導蘇超”圖片是個典型謠言
三、如何應對人工智能時代的“AI謠言”?
四、警惕“恐怖谷”效應
人類的迷信心理是個非常復雜的文化現象。在遠古時代,人們迷信各種占卜語言;到印刷時代,人們迷信白紙黑字;在網絡時代,人們認識到文字會文過飾非,開始迷信“有圖有真相”;到了今天的人工智能時代,人們開始迷信AI輸出的文字,認為那是集合了大數據和人類知識的精華,沒有理由不相信。
在今天,每天都有無數人不間斷地和AI對話交流,并將其生產出的文本、視頻和圖片放到網絡之上,其中很多信息是模棱兩可、真假不辨的,介乎自然知識和想象的事實之間。這如同在原來自然的江河湖海之外,每天有無數個管道在排放尾水,也即污染不明顯卻不能飲用的“IV類水”。久而久之,地表水的總體情況,會徹底改變構成。
我們從當下的兩個AI深度參與的謠言,再來談談“恐怖谷效應”,相信會給大家帶來一定的啟示。
一、熱搜“王一博相關謠言被DeepSeek永久撤回”也是一個謠言
這兩天,“王一博相關謠言被DeepSeek永久撤回”的信息上了微博熱搜。但是這個熱搜信息本身卻也是一個謠言,只不過是人工智能深度參與制造的謠言。這使得圍繞明星王一博的信息,呈現出了“謠中謠”的現象。這個現象凸顯了當下人工智能的時代,網絡治理和謠言治理的復雜性。
事情是這樣的:
近日,北京市首創集團原董事長李愛慶因受賄、濫用職權一案一審宣判,判處死刑緩期執行。由此關于李愛慶和男星關系的問題,再次成為網絡熱點話題,其中被提到的男星包括王一博等人。其實早在2022年,王一博經紀公司已經通過訴訟澄清了事實,維護了權益。但是在此次李愛慶宣判了之后,有好事的粉絲就和DeepSeek進行了對話,就當年一些謠傳和AI進行了交流,粉絲通過誘導等方式,成功“逼出”了DeepSeek的幻覺,也就是人工智能特有的虛假信息,類似信息如全網刪除類似謠言、向王一博道歉、啟動賠償方案等。然后粉絲將此視為DeepSeek公司的道歉,然后就開始在網絡大肆傳播,結果眾多媒體就信以為真,就紛紛下場報道,出現了如下一些媒體進行了正兒八經的新聞報道:
如果不是有人注意到DeepSeek所在的公司并未進行道歉,這個新聞還會繼續傳播。畢竟,在政經等主流嚴肅新聞之外,那些娛樂話題,常常真真假假,大眾并不會充分論證,只要認為是真實的,就會進行傳播交流。
二、“國足來指導蘇超”圖片是個典型謠言
其實眼下如火如荼進行中的蘇超,已經受到過一次廣泛傳播的謠言的襲擊,不過大家都以娛樂心理來看待它,沒有深究罷了,但是它的確是個典型的AI時代的謠言。
這就是大家都記憶猶新的“國足要來指導蘇超”的網絡傳言。在6月初,也就是蘇超剛剛火爆出圈、成為全民社交話題的時候,一個AI制作的圖片在網絡悄然走紅。
結果,這個網絡圖片讓遨游蘇超流量的網民,一時間突然出戲,但是又感覺在情理之中,于是紛紛轉發和調侃,也有不少網民信以為真,不少自媒體針對這個配圖還專門進行了“辟謠”。
我和兩位大學新傳院的老師進行了較為正式的探討:這個AI生產的圖片,算是謠言嗎?
從事件看,雖然“國足來指導蘇超”事件本身并未發生,因為哪怕要一點面子的國足對此想都不會想,但是不影響這個AI圖片迅速出現了廣泛傳播,并且成功激起了群體性的情緒反應,也有辟謠的信息出現。
根據謠言最簡單、最普遍的定義,是指“沒有事實根據的信息或者傳聞”,它甚至沒有要求必須是個事件,一個信息就足夠了。所以我和研究新聞傳播的老師們都確認,這個AI圖片導致的信息傳播,是個典型的謠言。
一些謠言之所以廣為傳播,在于謠言往往一舉擊中了群體心理的痛點。比如蘇超之所以如此火爆,在深層心理上是因為國足的習慣性、經常性的失敗,并且爆發了腐敗窩案,這讓人們“怒其不爭”之外,又憤怒又無奈,只能通過諷刺性的段子來宣泄這種負面情緒。在蘇超身上人們終于看到一個健康純粹的足球運動的時候,人們對于國足也不忘來個“回馬槍”,這恰恰是為網民的心理需求量身定做的。所以說,大型謠言往往是群體共同生產的公共產品,是個群體的甜點。“國足要來指導蘇超”完全符合這樣的特征。
三、如何應對人工智能時代的“AI謠言”?
當下的人工智能時代,AI已經深度滲透進了我們生活的方方面面,但是內容生產從來不僅僅是個內容的問題,更經常涉及信息安全、意識形態和生活秩序的問題,也涉及到人工智能對于人類主體性的地位挑戰問題,所以說,在今天人工智能帶來極大便利的時候,或許風險挑戰才剛剛開始。
大家也會注意到,DeepSeek從今年年初的橫空出世的劃時代產品,到今天很多人對其慢慢產生了困惑,這在于交流的時候,人們發現了DeepSeek兩個問題:一是,感覺DeepSeek特別像個圓熟世故的中年人,對于一些敏感的話題或者避而不談,或者以轉圈來打太極拳;二是經常出現了幻覺現象,也就是答案里出現了不少虛假的不實信息,根據有關數據,幻覺率達到了15%上下。兩個方面讓人們對于DeepSeek,突然產生了疏離感。這正如人們對于屏幕上濃眉大眼的電影男主角充滿了崇拜,但在線下見面的時候卻發現老是忽悠大家,這對于情感是個打擊。
更何況,今天人們的日常生活和生產,慢慢變成了人機結合、人機協作,這使得很多AI生產的內容變得面目可疑,模棱兩可,這會透支人們的信任心理。
就以上述兩個謠言來說,可以看出新的特點,就是AI深度參與了謠言的生產和傳播。由于人們開始大量運用AI進行內容生產,并且網民對于AI也產生了一定的迷信心理,由此形成了信任機制和傳播機制,會導致一些幻覺信息,很快進入傳播空間,從而爆發為謠言。
其實謠言的爆發,本質上是個信任心理現象。由于謠言是根據網民群體心理的需求而制作出來的,精準擊中了大眾心理,從而獲得了大眾的信任,再加上人們對于人工智能也出現某種程度的迷信心理,這給人工智能生產謠言、傳言、流言,就打開了便利之門。
AI謠言和傳統謠言,本質上并無差別,但是由于人工智能的幻覺現象,會一本正經地添油加醋,并且會盡力地以深入思考的形式說服用戶信任它,反倒給不實信息蒙上了迷惑性的外表,插上了傳播的翅膀,因此風險更大。
如何應對類似的AI謠言?我覺需要從以下兩個方面入手:
1、大眾破除對于人工智能的迷信心理
我覺得首要一點,就是破除人工智能的迷信心理,要對所有人工智能生產的內容,抱以質疑性的、批判性的眼光和思維來看待。這應該成為今天一種人工智能時代的“信息素養”。凡是人工智能生產的內容,都值得再次確認、二次論證,而不是無條件地接受。
實際上,對于任何熱傳的新聞和信息都抱著獨立的、批判性的眼光來看待,這本身就是國民整體素質提高的標志之一,也是公民素養之一。質疑,而非無條件地接受,這樣才能啟動思考的力量,這本身就會成為抵御謠言襲擊的觀念和思想的壁壘,防止社會出現剛性脆弱。提升無數個體的知識水平和信息素養,本身就能夠建成足夠彈性的心理壁壘,確保社會的安全。
2、機構媒體需要以批判性視角報道網傳信息
我們會發現很多網傳的不實信息引爆為大型的謠言,中間會出現一個分水嶺、一個關鍵的信息傳播拐點,那就是傳統媒體或者機構媒體一旦正式報道了,那就會出現大規模的轉發。因為機構媒體享有更大的公信力,一旦報道了,就相當于為網傳信息提供了背書,網民就此完全放松了警惕。就以“王一博相關謠言被DeepSeek永久撤回”,機構媒體的報道起到了推波助瀾、間接證實的中介作用。
所謂的機構媒體,不再僅僅指傳統的媒體。在今天很多自媒體做大之后,通過辦公場地的固定并雇傭一定數量的員工,也會成為一個機構媒體。機構媒體往往擁有固定的渠道和粉絲群體,從而產生影響力和公信力。
但是問題在于,媒體沒有天然義務核實和甄別信息的真假。他們的天職只是及時地傳播信息,卻并不必然包括準確性。這出現了人們深為不滿的一個現象是,傳謠和辟謠,媒體常常收獲了兩波流量。這源于,媒體領域存在廣泛而激烈的同行競爭,如果遺失了對于某個信息的及時報道,這會導致競爭的落伍和工作的問責,更會導致多米諾骨牌一樣的后續負面影響,比如,粉絲一旦不能及時看到信息,會認為你不專業、不負責,更可能的情況是,會被那些經常第一時間報道的媒體吸引走,而拋棄丟失信息的媒體。因此,媒體對于報道的競爭性策略,常常是“寧報錯,不錯過”,先報了再說。這是由媒體的職業本能決定的,無關道德責任。
較為負責的媒體,面對一個突發的信息或者熱傳的信息,會盡責地進行辨析,但是這不是內在的職業要求,而是外在的社會責任壓力。我所能想到的平衡策略,就是機構媒體對于突發的網傳信息,最好是以質疑性的、批判性的角度來報道和傳播信息。
這有利于提醒網民的獨立思考,同時也能確保媒體的品格。尤其對于今天網傳信息多發、又增加了人工智能幻覺現象的時候,機構媒體的質疑性、批判性報道,本身具有極大的社會價值,具有啟迪社會思考的意義。
四、警惕“恐怖谷”效應
雖然我在上面提出了兩個建議,但是我的擔心是,它或許只在當下有用,隨著人工智能的進一步發展,這些提醒會全部失效,從而可能導致更大的風險。
我們從“恐怖谷理論”,能夠理解這樣的風險,其實是越來越大的。
“恐怖谷理論”是由日本機器人專家森昌弘在1970年提出的理論,用來描述人類對于機器人情感的變化。森昌弘提出,人形機器人在一開始比較像人的時候,人類是抱以好感的,但是當機器人進一步更加像人的時候,人類會在某個時刻,突然產生一種恐懼感,對于機器人的好感會降到谷底,這就是“恐怖谷”。但是當機器人再進一步,完全像人的時候,由于人類已經經歷過情感的刺激免疫,反倒會接受和自己越來越相像的機器人了。
我們借用機器人的“恐怖谷效應”,再來看人工智能的內容生產,會發現:在當下人工智能剛剛出現的階段,人們對于AI生產的內容雖然比較信任,但是經過媒體的提醒,還是能夠對其抱以警惕和質疑,從而形成獨立性的、批判性的思考的。
也就是說,在當下人們對于AI的內容生產,正處于一個 “恐怖谷”階段,人們會對AI內容抱以一定的警惕和質疑。
但是隨著人工智能的進一步發展,它生產的內容或許會持續優化,終于在某個階段消除了幻覺現象,或者在很多方面獲得了更大的進步,人類對于AI會不會完全放松或者失去警惕,從而對其完全接受呢?
我看大有可能。很多科學家認為人類社會正在無限逼近“奇點”,也就是人類科技獲得突破的質變時刻,人工智能的發展也是快速演進,終究會在接下來的某個時刻,讓人類放下警惕之心,人類也跨越“恐怖谷”,從而徹底完全地信任人工智能。
一旦徹底地接受人工智能,那人類的主體性或許更加岌岌可危了,那么AI謠言或許就不再是謠言了,而是AI營造的某種真實了。我想,那個時候才是最值得警惕的。
作者簡介:
燕志華 博士
高級記者/紫金傳媒智庫研究員/輿情管理顧問
當下
國內網民和特朗普首次“合流”:蔣雨融熱點的點評
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.