今天刷到個消息,讓人哭笑不得。
具體看圖:
某行業研究報告,目錄里面赫然寫著“煤炭,收獲來自煤礦石以及擊殺凋零骷髏。”一看這段就是用Ai寫的。
要知道這是一份極其正式的報告,售價不菲,就連這樣的東西都是用ai編的,可想而知我們生活中ai編造的假信息已經有多泛濫了。
我可以負責任的說。
你現在在微信、微博、今日頭條、小紅書、知乎、B站、Youtube、X、reddit...
反正這個星球上任何一個有分發推薦機制的社交媒體平臺上,刷到的推薦消息,至少一半以上是用ai生成的。
隨便舉幾個例子。
比如剛剛刷到的這條,多么典型的deepseek文風:
比如董明珠發言“不要海歸”被輿論圍攻,有人感慨恰恰因為格力多次遭背刺,導致核心技術泄露給外企,才不得不痛定思痛。
AI醫生的風頭正旺,結果很快有負面案例出來唱衰,“AI醫生誤診延誤治療”。
再往前。
法國人馬庫斯向中國捐贈日本侵華照片,也有人認定他捐贈的是罪證昭昭的“前731部隊活體解剖記錄”,逼得東京首相府徹夜未眠。
《哪吒2》狂攬票房的時候,餃子導演被高高捧起,夸他員工福利搞得好。累歸累,房子和錢兩不誤,大家都賺了個痛快。
DeepSeek橫空出世、驚艷眾人時,還有人言之鑿鑿夸獎它保密工作做得好,嚴防死守到外賣都要禁入3公里,是科技戰的好榜樣。
凡此種種,不一而足。
或許有很多次,你的心情被這些消息牽動著,一會憤怒一會心酸,一會感慨世界之大無奇不有,一會心潮澎湃激情昂揚。
但很遺憾,你的情緒白費了。
別看這些消息說得有鼻子有眼,有人物有對話有細節,仿佛當事人身臨其境目睹了一切,但仔細查驗就知道,里面提到的很多人是不存在的,很多事是時間錯位的,很多沖突是虛構的。
它們都是AI編造的,而非事實。
但這就是如今我們的互聯網。
大到國際政治與紛爭,小到生活科技的發展,方方面面都充斥著AI編造的謠言。
甚至不止互聯網,也不止寫研報的分析師,現在律師也都用ai瞎編。
根據路透社的報道,美國法院對多個律師提出過警告,因為他們會在法律文件中使用AI生成的虛假信息,包括特朗普的前律師。
他利用Bard生成的判例為自己申請緩刑,但這些判例中有不少是AI胡亂編造的。
還有其他律師引用了AI生成的虛假案例,被法院發現并罰款2000美元。
你看,理應更有邏輯、更嚴謹的律師之流都如此,就別提普通網友了。
如今人們創造了一個新詞,叫做AI幻覺,指的就是這些AI瞎編不存在的事情。
但ai瞎編叫做幻覺,人類把ai瞎編的東西當作真事發出來就純屬造謠了。
有時候甚至不是人類不小心相信了ai,而是人類就是利用ai瞎編,裝成是真事發到網上。
不停污染互聯網的數據庫,讓現在網絡上充滿了各種造謠瞎編的信息。
導致互聯網面臨巨大的垃圾信息污染。
而這些垃圾謠言信息被發出來以后,則又會被各種爬蟲給抓取回去,當成是真事進行訓練學習。
這樣一來二去折騰個幾遍,假的也被說成真的了。
假消息當然不是AI的首創。
但問題在于,AI編故事的效率實在太高了。
以前靠人工編假新聞,一天也就編個一兩條吧,而且多半還要基于對現實的了解。
但AI不需要。
只要給出對應的關鍵詞,它一天就能跑出幾百幾千條假新聞,情緒飽滿,細節充實。
而它的精明之處在于,很多時候編造的不是那種純粹的假新聞,而是掌握了真假參半的奧義,在真的故事背景以下,添加假的細節。
讓人偽證起來也復雜得多。
同時,它降低了人類創造假新聞的門檻。
以前你想寫個有專業屬性的假新聞,不了解的話肯定漏洞百出,得先做功課。
你還得有點文筆,才能寫得讓人信服。
但AI的功課都已經存儲在云端了。
于是能夠合理運用那些看似高大上的專業詞匯,為假新聞添磚加瓦,乍一看特別可靠。
只有進一步研究、查證才知道,它引用的論文、數據,乃至名人名言,到底是不是編的。
也就是說,AI大大解放了造謠者的勞動力。
如果說以前只有千分之一萬分之一的人有能力造假,那么現在就是哪怕小學沒讀完,哪怕不認識幾個字,都可以利用AI來造假。
再加之,如今是流量為王的時代。
現在大多數平臺都是只要你有流量,甭管怎么來的,都能通過廣告共享分成賺錢。
有些沒素質的人就會故意制造假新聞來博關注,好利用別人的關注換流量。
因為只要有流量,就能拿錢。
所以他們就會大量開設這種賬號,一個人開五六十個號,天天發這種AI生成的假新聞,或者這種假新聞自動生成的視頻。
AI天生就會制造爆點,編出來的內容往往既囊括了時下的熱點,又創造了各種立場沖突,怎么看怎么刺激,怎么看怎么聳人聽聞。
這些內容迎合了網絡的傳播需求,更容易得到平臺推送,從而獲得流量和收益。
于是引發惡性循環。
想想看,當一個熱點事件發生。正經媒體得花時間查找資料,鑒定資料是不是真的,還只能發真實發生的事情。
就算使用AI當工具,也會主動做審核,去把AI提供的虛假信息給篩查出來。
而用ai編新聞的人,只要命令ai“關于這個話題,給我寫一段能吸引人的文章,我要發微博吸引眼球”
不到十秒,ai就能給你編一個最能吸引視線的文案。里面各種例子各種細節,讓人身臨其境,仿佛在看一場實時跟拍的紀錄片。
你說哪種能火?
最后必然是編新聞的ai獲得更多流量,最后賺得盆滿缽滿。
典型的劣幣驅逐良幣。
這不是危言聳聽,甚至不是在預言未來。
這是實實在在正在發生的現實,就在你讀文章的這一分鐘,可能已經有上千萬條ai假消息正被投入互聯網。
現在,我們還在思考哪些地方在用ai生成假消息,好避雷。
可能用不了多久,我們就要思考到底哪里沒被污染,哪里才有真的消息了。
最后的問題依舊是怎么辦。
學會分辨AI創造的內容是第一步。
雖然有人覺得AI模仿人類文風已經出神入化,但看多了還是能總結出很多特征。
比如,精確的數字。
AI熱衷于通過具體的數值,極盡夸張之所能,強調事態的嚴峻程度。
又比如,帶有總結或列舉屬性的小標題。
就算沒有第一、第二,也要有起承轉合。每個版塊還會給一個對應的抽象概念。
它們還愛用大詞,愛掉書袋,愛上價值。
難懂程度,堪比互聯網大廠黑話。
過多的細節堆砌,也是AI的風格之一。
誰能在戰爭現場注視著“胸前的共青團徽章在月光下泛著冷光”?
誰又能知道“巨貪受賄時都要對方把金條熔成發動機葉片形狀”?
可誰能有這樣的上帝視角,仿佛躲在案發現場的床底下,目擊一切?沒有人,只能是AI。
AI熱衷于運用修辭手法。
比喻、排比、量化、夸張,都能信手捏來。但看幾條就發現牛頭不對馬嘴,只是強行附會。
它還特別熱衷于編排陰謀。
像撰寫小說一樣,撰寫詳細的暗網交易、命運的巧合,生怕不夠戲劇化。
總而言之,它就是會生成一堆看似有道理實則純屬虛構的內容,細究都是漏洞。
不過由于很多內容會經過二次傳播。
所以很多時候,單憑內容本身已不足以讓我們評估信息的真實性或可信度。
我們需要去了解更完整的背景和傳播鏈接:誰和你分享了這些信息?這些信息是如何分享的?你怎么知道是他們分享的?
然后才能夠判斷出內容真偽。
或許這就是新時代下的網絡必修課,沒有什么內容是完全可信的,我們要學會追根溯源。
然而,以AI謠言如今的泛濫程度為參考,光靠著個人進行分辨和辟謠,遠遠不夠。
當務之急,還是要把上面提到的惡性循環給斷掉。
最好是能夠通過技術手段,對AI生成的內容進行區分和明確標識,對假消息及時控制。
不要盲目推流。
尤其是涉及重大事件和敏感內容的時候,更應該謹慎一些,避免二次擴散。
這也算是用魔法打敗魔法了。
畢竟現實中,開鎖的師傅都得去公安局備案,更何況是這些更不受控的內容呢?
另外我也支持對這些濫用技術制造假消息的人進行重罰,要讓他們知道不該如此。
人就是很容易被利誘的。當看到有利可圖的時候,他們會愿意鋌而走險。
如果付出的代價不夠重,他們甚至會覺得就算被罰也值得,畢竟錢是真的進了自己口袋。
所以重罰才有足夠的威懾力。
Ai是現在最重要的技術,沒有之一。它最終一定會改變全世界的生產勞動關系,一定會改變一切。
就看人類如何用好它了。
我現在關于未來的構想里,ai都不是什么好角色,最終都會讓人類活得更差而不是更好。
希望更聰明的那些人,能找到辦法,讓ai服務人類,而不是取代人類。
搞了個知識星球,名字叫【雷叔講世界】。
最近主要在分享一些投資的思考。
還會有房產投資、旅游攻略、一些不太方便發的文章,或者怎么做自媒體等等。
現在發了一些專欄文章,都是公眾號不會發的,現在進去都能看:
總之大家有興趣的可以過來玩。
群里現在已經有1800個小伙伴了,大家沒事可以當成個論壇扯扯淡也不錯。
我們已經拉了很多微信群了,還會線下組織吃飯、打網球等活動。
歡迎加入來扯淡聊天:
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.