圖片
在人工智能領域,有這么一個測試,叫做“圖靈測試”,顧名思義,這個測試是計算機先驅、英國數學家圖靈構想出來的。
這個測試是干什么用的呢?就是判斷一個人工智能是不是真的具有了智慧。
這個測試大概的意思是說,如果電腦能在5分鐘內回答由人類測試者提出的一系列問題,且其超過30%的回答讓測試者誤認為是人類所答,則電腦通過測試。換句話說,測試者分不清對面和他對話的是人還是電腦。
最近chatgpt很火,每個人都想跟它交流一下。可大家想過沒有?如果你不知道和你聊天的是chatgpt,你有多大概率會把對方當做一個真正的人?肯定超過30%吧?
你甚至會把對方當成是一個博學的、圓滑的、說話滴水不漏的話癆。所以說句不客氣的話,chatgpt在一定程度上已經通過了圖靈測試。
我想這也就是讓大多數學校和學術期刊如臨大敵的原因。當學生讓chatgpt寫作業的時候,當學者讓chatgpt幫忙寫論文的時候,老師和評審們很有可能識別不出來。《大西洋雜志》就哀嘆“大學論文從此死了,高中英語課程死了。”
巴黎政治大學等高校都向所有學生和教師發送電子郵件,要求禁止使用ChatGPT等一切基于AI的工具,旨在防止學術欺詐和剽竊。
紐約等美國城市的教育部門也發布禁令,在公立學校的網絡和設備上禁止訪問 ChatGPT。多家知名學術期刊更新編輯規則,明確禁止將ChatGPT列為合著者,部分期刊更是明確不允許在論文中使用ChatGPT所生產的文本。
如今這種擔憂也傳到了國內。近期,《暨南學報(哲學社會科學版)》發布關于使用人工智能寫作工具的說明。說明提到,暫不接受任何大型語言模型工具(例如:ChatGPT)單獨或聯合署名的文章。
在論文創作中使用過相關工具,需單獨提出,并在文章中詳細解釋如何使用以及論證作者自身的創作性。如有隱瞞使用情況,將對文章直接退稿或撤稿處理。
說實話《暨南學報》的說明還是有點客氣了。他們希望投稿的人會誠實地把使用過chatgpt或是其他人工智能系統這件事說出來。但這希望很可能會落空。
圖片
所以chatgpt的普及會帶來兩個嚴重后果,第一個后果就是作弊變得比以前更容易了。
美國著名語言學家喬姆斯基(他竟然還活著)就認為,ChatGPT是一個高科技剽竊系統,從海量數據中發現規律,并依照規則將數據串連在一起,形成像人寫的文章和內容。在教育界,已經引發了“ChatGPT讓剽竊變得更加容易”的擔憂。
而比這更加嚴重的后果,是人類可能會就此依賴ChatGPT,放棄獨立思考。這東西實在是太方便了,把關鍵詞往里一扔,一會兒就給你生成一篇花團錦簇的文章。那還寫什么文章啊?以后就靠它了。
說實話,人類科技的發展源于兩個動力,一個是好奇心,驅使著人類不斷探索未知世界。而另一個是懶惰,很多科技發明就是為了把人類從繁重的勞動中解放出來。
懶得走路就發明了車,懶得掃地就發明了掃地機器人,懶得洗衣服就發明了洗衣機。但有一樣東西可千萬不能懶,那就是思考。
圖片
思維能力和由此誕生的創造力,是人類能夠走到今天最重要的原因。而且科學已經證明,思維能力并不完全是與生俱來,它還需要后天鍛煉,而且用進廢退。這就是我們讀書學習的目的所在。
在當今這個圖片和短視頻橫行的年代,人類的思維能力已經普遍呈現出倒退的趨勢。二戰后人類平均智商逐年上升的“弗林效應”正在被逆轉。
而這個時候,如果我們再把學習這件事交給人工智能,那可真就是把大好的江山拱手相讓了。我們一邊擔心著人工智能會替代我們的工作,而另一邊又把學習這一塊交給了人工智能。這不就是南轅北轍嗎?
說實話,即使明白這個道理,人們的懶惰仍然會戰勝理性。當有了剽竊、作弊的巨大需求,人工智能系統就有了市場。這時候簡單的聲明阻止不了這種事的發生。
不過反過來,既然擔心人工智能成為高科技剽竊系統也成為一種需求,那么未來是不是會有科技公司研發另一種人工智能系統,專門用來識別ChatGPT寫出來的文章,用魔法打敗魔法。
當然,這只不過是我這個外行的異想天開。但是我們必須從這件事情上看到問題所在。ChatGPT的出現,不僅僅會搶走人類的工作,還有可能讓我們依賴它替我們思考。人工智能的可怕之處就在于它學會了思考,而比這更可怕的是我們人類放棄了思考。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.