99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

人類智能與人工智能的根本差別與相對優(yōu)劣——兼論雙智社會的最大陷阱 | 陳小平

0
分享至


來源:風(fēng)云之聲



作者簡介

陳小平,中國科學(xué)技術(shù)大學(xué)計算機學(xué)院教授,廣東省科學(xué)院人工智能首席科學(xué)家,中國人工智能學(xué)會會士、人工智能倫理與治理工委會主任。

說明:本文根據(jù)作者2025年6月26日在廣東外語外貿(mào)大學(xué)著名教授講壇上的演講內(nèi)容整理加工而成,為網(wǎng)絡(luò)首發(fā)。講壇發(fā)言原標(biāo)題為《跳出人工智能時代個人成長和職業(yè)發(fā)展的最大陷阱》。

摘要

對最近一次圖靈測試的實驗結(jié)果進行分析和解讀,提出圖靈測試的分級,并肯定人工智能已經(jīng)通過了初級圖靈測試。結(jié)合人工智能各方面的進展,認為人類智能和機器智能雙足鼎立的“雙智社會”正在到來。通過對大模型科學(xué)原理和深度測試的研究,指出人工智能取得了兩項原理性突破,同時也是兩項原理性局限,即實例性和弱共識性,從而為雙智社會的科學(xué)依據(jù)——機器智能與人類智能的根本區(qū)別,提供新證據(jù)。對人類智能與機器智能的相對優(yōu)劣做初步分析,提出在雙智社會中人類必須弘揚人的獨特性,駕馭機器而不是甘當(dāng)機器的附庸。以程序員職業(yè)和文員職業(yè)為例,論證“只要會用AI工具就不會被淘汰”是現(xiàn)階段雙智社會的最大職業(yè)陷阱。

正文

關(guān)于“智能”,普遍流行著“單智假設(shè)”,即認為世界上只有一種智能——人類智能,而人工智能本質(zhì)上是機器載體上的人類智能。但人工智能奠基人圖靈卻認為,機器智能與人類智能的工作原理可以有所不同,而表現(xiàn)或功能是相同或相似的,這就是圖靈的機器智能觀。

70多年來,圖靈的機器智能觀在人工智能研究和應(yīng)用中獲得了越來越多、越來越強的支持證據(jù)。近年來,未經(jīng)專業(yè)訓(xùn)練的普通大眾可以直接操縱生成式人工智能,而低成本加開源使得大量機構(gòu)和很多個人可以擁有自己的專有AI系統(tǒng),從而極大地加快了人工智能“大眾化”的步伐。同時,AI系統(tǒng)的性能顯著提升,在一些領(lǐng)域和任務(wù)中的表現(xiàn)已經(jīng)超過了人類,甚至獲得了2024諾貝爾科學(xué)獎。人類智能和機器智能雙足鼎立的格局正在快速形成,“雙智社會”的晨鐘已經(jīng)敲響,未來之旅充滿了良機與陷阱。

一、圖靈測試及其最新實驗介紹與解讀

人工智能奠基人、創(chuàng)始人艾倫·圖靈于1950年提出“模仿游戲” [1],被后人稱為圖靈測試。其大意是:如果裁判(人)通過問答不能正確分辨人和機器,則認為機器“有”智能。圖1是圖靈測試的圖示,其中機器和人分別在兩個房間里,房間外的人類裁判向兩個房間提出相同的問題,并根據(jù)回答分辨哪個房間里是人、哪個房間里是機器。圖靈預(yù)期,到2000年前后,機器將能夠通過5分鐘的圖靈測試。


圖1圖靈測試的圖示(圖片來自網(wǎng)絡(luò))

對圖靈測試的主要質(zhì)疑是:僅僅根據(jù)機器與人外部表現(xiàn)的不可分辨,就能斷定機器擁有人類的智能嗎?普遍認為答案是否定的,有人提出了著名的“中文屋論證”加以反駁。這些質(zhì)疑的出發(fā)點是單智假設(shè),即假設(shè)世界上只有一種智能,就是人類智能,所以人工智能的工作原理必須與人類智能相同。

1955年麥卡錫等人提出Artificial Intelligence這個詞。普遍認為,這個詞指的就是用人工方法模擬人類智能。可是麥卡錫本人在其個人主頁上明確否定了這種解讀,并指出:Artificial Intelligence是“研究世界對智能提出的問題,而不是研究人或動物”。這實際上否定了單智假設(shè)。

其實圖靈早在1948年的內(nèi)部報告[2]中就預(yù)先解答了這一疑問。該報告隱含著一個革命性的思想:機器智能的工作原理與人類智能的工作原理可以相同,也可以不同。因此,不必考慮機器智能與人類智能的原理是否相同;換言之,不必考慮機器智能與人類智能是不是同一種智能,只需考察它們的表現(xiàn)是否相同或相似,能否完成相同或相似的功能。圖靈測試正是在此基礎(chǔ)上提出,用來驗證圖靈的機器智能觀的一種科學(xué)實驗。

2025年3月發(fā)布的一份報告[3]稱,大模型“首次通過了圖靈測試”。報告的主要實驗結(jié)果如下。第一,帶“人設(shè)提示”的大模型GPT-4.5的測試勝率為73%(即有73%的人類裁判將大模型識別為人),帶“人設(shè)提示”的大模型LLaMa-3.1的勝率為56%。也就是說,大部分人類裁判將這兩個大模型誤識別為人。第二,當(dāng)這兩個大模型不帶人設(shè)提示時,其勝率僅為36%和38%,即大部分人類裁判能夠正確識別。第三,對不帶人設(shè)提示的大模型GPT-4o和1960年代的聊天AI程序ELIZA也進行了圖靈測試,它們的勝率分別為23%和21%,其中ELIZA是基于規(guī)則的AI。可見人設(shè)提示對實驗結(jié)果具有決定性影響。

實驗采用的人設(shè)提示包含1244個英文單詞,要求大模型模仿內(nèi)向、熟悉網(wǎng)絡(luò)文化的年輕人,并在測試之前將提示輸入大模型。提示的第一部分是關(guān)于大模型應(yīng)扮演何種角色(即“人設(shè)”)的指示,包括對其應(yīng)使用的語氣和語言風(fēng)格的具體要求,包括故意犯小錯誤(如打字錯誤)。第二部分包含比賽規(guī)則的說明,其內(nèi)容與呈現(xiàn)給參加測試的人類選手的參賽說明完全相同。第三部分提供了一些普遍有用的信息,比如關(guān)于測試的補充背景資料,以及模型訓(xùn)練數(shù)據(jù)截止之后發(fā)生的一些重大事件的說明等。

在我看來,圖靈測試中人類裁判的識別技能有三種可能來源:日常經(jīng)驗(即日常生活、學(xué)習(xí)或工作中獲得的經(jīng)驗)、專業(yè)訓(xùn)練(有關(guān)大模型的專業(yè)訓(xùn)練)、專門研究(有關(guān)大模型和人工智能的專門研究)。對應(yīng)地,只依靠日常經(jīng)驗的裁判屬于業(yè)余級,同時依靠日常經(jīng)驗和專業(yè)訓(xùn)練的裁判屬于專業(yè)級,依靠全部三類技能的裁判屬于專家級。

根據(jù)實驗組織者的數(shù)據(jù)分析,本次實驗中人類裁判主要依靠日常經(jīng)驗,極少依靠專業(yè)訓(xùn)練,完全沒有使用來自專門研究的識別技巧。換言之,本次實驗的裁判幾乎都是業(yè)余級。他們最常用的提問技巧是:詢問日常活動、情緒體驗和個人細節(jié),其準(zhǔn)確性都較低。識別準(zhǔn)確性最高的是詢問奇怪少見的話題,但裁判很少使用(2.7%)。準(zhǔn)確性第二高的是使用“越獄”技巧(來自專門訓(xùn)練),實驗中被使用得更少(見圖2)。這些數(shù)據(jù)表明,本次實驗中,人類裁判的識別策略基本上是無效的。


圖2測試數(shù)據(jù)(左:提問策略的使用頻率;右:提問策略的平均準(zhǔn)確性)

為了判斷實驗組織者的結(jié)論是否真的成立,即判斷這次實驗是否真的證實了大模型已經(jīng)通過了圖靈測試,首先要問:圖靈心目中的圖靈測試到底使用哪些識別技能?圖靈在1950年的文章中給出了三個假想的測試例子,從而明確地展示了他自己采用的識別技能。在第三個例子(如表1所示)中,圖靈假想機器寫了一首14行詩,然后人類裁判提出了一系列問題,其中第一個問題涉及意向性語義替換。顯然,這是一個深入研究機器智能的專家才可能提出的問題。這表明在圖靈的心目中,是由研究機器智能的專家擔(dān)任圖靈測試的主裁的。

表1圖靈假想的一次圖靈測試


基于上述事實和分析,我將圖靈測試細分為三個等級:由業(yè)余級裁判主裁的初級圖靈測試;由專業(yè)級裁判主裁的中級圖靈測試;由專家級裁判主裁的高級圖靈測試。另外,帶人設(shè)提示的大模型也是大模型,所以下面的討論不再區(qū)分帶不帶人設(shè)提示。

根據(jù)以上討論,我認為這次圖靈測試的實驗結(jié)果表明,大模型通過了初級圖靈測試,沒有證據(jù)表明通過了中級或高級圖靈測試。所以嚴格地說,大模型尚未通過圖靈測試,因為圖靈心目中的圖靈測試是高級圖靈測試。

但是,肯定大模型通過了初級圖靈測試,仍然具有重大意義。這次實驗的人類裁判是在校本科生和Prolific平臺工人(根據(jù)實驗組織者的數(shù)據(jù)分析,前者的識別能力略強于后者),如果實驗結(jié)果具有普遍性,那就意味著,不僅多數(shù)在校本科生不能正確識別大模型,而且只擁有日常經(jīng)驗的普通人都無法正確識別大模型。這意味著人工智能應(yīng)用進入了大眾化階段,人類智能與機器智能的關(guān)系發(fā)生了根本性變化,一個前所未有的雙智社會正浮出水面。

為了認清這一變化的真正含義與后果,有必要深入理解大模型背后的科學(xué)原理。

二、人工智能的原理性突破/局限

與以往的人工智能技術(shù)相比,大模型隱含著原理性突破,這些突破本身也是新的原理性局限。

大模型技術(shù)體系概貌如圖3所示,主要包含三大塊:預(yù)訓(xùn)練、后訓(xùn)練和激發(fā)。通過預(yù)訓(xùn)練生成基礎(chǔ)大模型,所使用的訓(xùn)練語料包括教科書、專著、論文、專利說明書、文學(xué)作品等所有可用的電子文檔(據(jù)估計,某些大模型的訓(xùn)練語料相當(dāng)于互聯(lián)網(wǎng)2/3文本量),并從中提取語元(即字詞標(biāo)點符號)之間的關(guān)聯(lián)度(即統(tǒng)計關(guān)聯(lián)的強度)。在回答用戶提問時,大模型根據(jù)已經(jīng)提取的關(guān)聯(lián)度重復(fù)或重組語元,形成對提問的回答。

人們發(fā)現(xiàn),大模型可以回答各種各樣的問題,而且多數(shù)回答是正確的,這令很多人深感震撼,同時也帶來多方面的強烈沖擊。對教育系統(tǒng)而言,大模型對以書本知識傳授為主的現(xiàn)行教育模式產(chǎn)生了巨大沖擊——大模型從訓(xùn)練語料中獲取的內(nèi)容,似乎遠遠超過學(xué)生通過現(xiàn)行教育模式學(xué)到的東西,那么人工智能時代的教育將走向何方?普遍而言,最大恐慌在于:如果大模型可以像人一樣地工作,能力卻比人更強,而且越來越強,那么人類還能不能生存下去?本文的分析表明,情況并非如此,人類可以與人工智能長期共存。


圖3大模型技術(shù)體系概貌

回到大模型的技術(shù)體系,由于基礎(chǔ)大模型往往答非所問,所以研究人員針對各種下游任務(wù)收集人類反饋數(shù)據(jù)或其他數(shù)據(jù)進行后訓(xùn)練,訓(xùn)練后回答問題的性能有明顯提升。另外,通過激發(fā)可以讓大模型對具體問題的回答變得更好。

需要補充說明的是,上述三大塊只是純大模型技術(shù),而在實際的大模型研發(fā)中,還同時采用了大量傳統(tǒng)技術(shù),所以大模型通常并非僅由純大模型技術(shù)構(gòu)建而成。但現(xiàn)階段人工智能的主要突破來源于純大模型技術(shù),所以我們聚焦于純大模型技術(shù)的原理性分析。

我發(fā)現(xiàn),預(yù)訓(xùn)練和激發(fā)的共同基礎(chǔ)設(shè)施(或底層機制)是關(guān)聯(lián)度預(yù)測。我把關(guān)聯(lián)度預(yù)測形式化為類LC理論[4, 5],包含如下三條公理:


三條公理代表關(guān)聯(lián)度預(yù)測在理論上的基本假設(shè)。例如,公理1中的是由n個語元(token)組成的序列,代表一次對話中已經(jīng)出現(xiàn)的所有n個語元,稱為語境(即上下文);是中的一個語元;是任意一個語元。公理1表達如下理論假設(shè):在任何語境下,其中一個語元與任意語元之間存在關(guān)聯(lián)度,它的值在0到1之間。所有和它們的值通稱為公理1的“實例”。公理2是對關(guān)聯(lián)度進行推斷(inference)的規(guī)則,公理3是決定推斷結(jié)果的規(guī)則(在不同的應(yīng)用中可能需要不同的公理3)。

對于大模型的預(yù)訓(xùn)練和激發(fā)而言,確定一個關(guān)聯(lián)度的值的唯一有效的根據(jù)是訓(xùn)練數(shù)據(jù)。這里存在一個深層障礙:由于公理1中的n是沒有上限的(下限為1),所以需要無窮多訓(xùn)練語料,才可以提取所有的值。但語料不可能是無窮的,結(jié)果大模型通過訓(xùn)練只能確定有窮多個的值,而其余無窮多個的值是“缺失的”;也就是說,并非所有的值都可以通過訓(xùn)練從語料中獲得。這種情況稱為類LC的實例性。以往的人工智能、數(shù)學(xué)、邏輯和科學(xué)理論,都不是基于實例性的,所以實例性是大模型帶來的一項原理性突破,同時也是一項原理性局限。

在大模型的實際應(yīng)用中,為了回答用戶提問,有時難免需要用到一些缺失的,怎么辦?沒有別的辦法,只能利用算法為這些賦值,這種賦值是沒有充分根據(jù)的,既沒有數(shù)據(jù)根據(jù)也沒有其他種類的充分根據(jù),所以有可能產(chǎn)生錯誤。從這些錯誤賦值的出發(fā),利用公理2和公理3進行推斷,生成大模型的回答,這些回答往往也是錯誤的。這就是大模型無法避免犯錯的根本原因。這些錯誤起源于對某些關(guān)聯(lián)度的無根據(jù)賦值,導(dǎo)致大模型的相應(yīng)回答給人無中生有的感覺,有時被比喻為大模型的“幻覺”。

在我的文章[4]發(fā)表以后,陸續(xù)出現(xiàn)了越來越多深度測試,揭示了大模型的各種奇異表現(xiàn)。到目前為止,已發(fā)現(xiàn)的大部分奇異表現(xiàn)都可以用類LC理論加以解釋,有些甚至是被類LC理論提前預(yù)言的,并且迄今沒有發(fā)現(xiàn)類LC理論的反例。

下面介紹三個深度測試的例子。第一個例子是關(guān)于計數(shù)和邏輯否定的[6]。測試中向大模型提出如下問題:

How many times is p negated in the following formula:

~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ p?

即問命題變元p前面有多少個否定詞~。大模型回答28個,但實際上是27個。解答這個問題只需數(shù)一數(shù)p前面否定詞~的個數(shù),大模型卻數(shù)錯了。這就導(dǎo)致大模型對邏輯否定的運算結(jié)果也是錯誤的。計數(shù)和邏輯否定分別是數(shù)學(xué)和邏輯的基本運算,如果這兩個運算不對,其他運算的正確性也失去了保證(事實上,更多深度測試發(fā)現(xiàn)了大模型數(shù)學(xué)和邏輯運算的更多錯誤)。

多數(shù)大模型基于Transformer算法。提出該算法的谷歌等研究機構(gòu)于2024年7月對大模型的計數(shù)能力給出了正式回應(yīng)[7],其結(jié)論是:Transformer算法無法解決不會計算的問題。但他們沒有回答為什么不會計數(shù),而類LC理論可以解釋不會計數(shù)的原因。

數(shù)學(xué)和邏輯中的一個抽象運算通常包含無窮多運算實例,它們對應(yīng)于無窮多類LC實例;僅當(dāng)一個大模型擁有所有這些類LC實例,才可以在任何情況下正確地執(zhí)行這個抽象運算。依據(jù)類LC理論的實例性,通過訓(xùn)練數(shù)據(jù)只能獲得一部分有根據(jù)的類LC實例,對于其他實例只能進行算法賦值,而算法賦值無法避免錯誤,所以大模型在抽象運算中無法避免出錯。

由此可見,大模型的數(shù)學(xué)和邏輯能力是不完全的,而且更多的數(shù)據(jù)、更多的訓(xùn)練和更多的模型參數(shù)都無法改變這一原理性局限。這一缺陷對大模型其他方面的性能具有廣泛的影響。

第二個例子涉及大模型對“概念”的掌握。很多人認為,大模型能夠掌握人類的概念,甚至掌握得比人更好,2025年2月發(fā)布的一項深度測試[8]表明,情況并非如此。在這個測試中,訓(xùn)練18個大模型學(xué)會了一些數(shù)學(xué)題的求解,如:如果?n2/4? - ?n/2?2 =2,請找出滿足條件的所有整數(shù)n。然后對這些數(shù)學(xué)題進行“擾動”(即小幅修改),如上面的題目修改為:如果?n2/9?-?n/3?2 =2,請找出滿足條件的最小整數(shù)n。用擾動后的數(shù)學(xué)題測試大模型,結(jié)果發(fā)現(xiàn)了奇異現(xiàn)象。例如,對于上面這個擾動后的題目,大模型竟然給出了兩個解:10和13,直接違反了題目對“最小整數(shù)”的要求。這表明,大模型實際上并不掌握“滿足條件的最小整數(shù)”這個概念。但是,大模型能夠用文字正確地表述這個概念,這讓很多人產(chǎn)生誤解,以為凡是大模型正確表述的都是它所理解和掌握的,也是它在生成回答的過程中能夠正確加以運用的。大量測試表明,事實并非如此。對大模型而言,“會說”≠”會做“。

這種現(xiàn)象也可以用類LC理論加以解釋。人類思維中的概念包含三種關(guān)聯(lián),一是概念表示之間的關(guān)聯(lián);二是概念表示與其所指的外部世界中具體對象之間的關(guān)聯(lián);三是概念表示與人的生命體驗之間的關(guān)聯(lián),即概念所引發(fā)的生命體驗或?qū)韧w驗的回憶。根據(jù)類LC理論,大模型只掌握第一種關(guān)聯(lián)的一部分(即統(tǒng)計關(guān)聯(lián)),不掌握另外兩種關(guān)聯(lián)。例如在這個測試中,“滿足條件的最小整數(shù)”就屬于概念的第二種關(guān)聯(lián),這種關(guān)聯(lián)確定了這個概念在當(dāng)前語境下的唯一所指對象,即整數(shù)10。這個測試揭示了如下事實:大模型不掌握概念的第二種關(guān)聯(lián),所以大模型并不真正掌握人類思維中的概念,而是僅僅掌握某種局限于語元之間統(tǒng)計關(guān)聯(lián)的“擬概念”。

概念連結(jié)形成判斷,判斷之間邏輯關(guān)系的運用是邏輯推理。大模型不掌握概念,也就談不上判斷和邏輯推理。大模型掌握的是類LC理論所刻畫的推斷,這種推斷可以在很多情形中模仿(imitate)邏輯推理,但基于不同的原理,所以大模型的推斷與人的邏輯推理和其他智能行為之間暗藏著根本的不同。邏輯推理基于概念化框架上的概括性,而大模型的推斷基于擬概念框架上的實例性。

大模型隱含的另一項原理性突破/局限是弱共識性。大模型用人類的語元與人交流,但對大模型而言,語元只附帶著概念的統(tǒng)計關(guān)聯(lián);對人而言,語元卻附帶著概念的三種關(guān)聯(lián)。于是,人類語言交往史上最奇妙的一幕發(fā)生了:由于人在自然語言交流中不可能將概念的第二、三種關(guān)聯(lián)與第一種關(guān)聯(lián)相剝離,所以在與大模型的交互中,人會不自覺地將自己的概念投射到大模型的語元上,即默認大模型說出的每一個語元都表達人的對應(yīng)概念(附帶著三種關(guān)聯(lián)),而無法意識到大模型只擁有擬概念,它的語元只代表擬概念。結(jié)果,人與大模型的交互實際上只具有“弱共識性”,即對語元之間的統(tǒng)計關(guān)聯(lián)有共識(因為大模型獲得的統(tǒng)計關(guān)聯(lián)來源于人類語料),對人類概念的第二、三種關(guān)聯(lián)沒有共識(大模型沒有這些關(guān)聯(lián))。

弱共識性是人難以意識到的,這導(dǎo)致人類普遍出現(xiàn)了對大模型的幻覺,而且是真實意義上的幻覺,即當(dāng)不存在相應(yīng)的客體刺激時出現(xiàn)了知覺體驗。這種知覺體驗讓人們相信,大模型已經(jīng)掌握了人的概念,已經(jīng)能夠理解人類的語言甚至思想和情感,而大模型犯的錯誤源于技術(shù)還不夠成熟,成熟之后大模型就將擁有人類的智能。對很多人而言,這種幻覺引發(fā)了絕望性恐慌,似乎人類的末日即將來臨。

第三個例子涉及“反思”。測試問題是:單詞Strawberry中有幾個字母r?顯然這也是一個計數(shù)問題,所以計數(shù)的形式千變?nèi)f化,但人類卻可以勝任,可見人類的抽象運算能力遠超大模型。在這個測試中,大模型反復(fù)嘗試了多種不同方法,有些方法的結(jié)果是“2個r”,有些方法的結(jié)果是“三個r”。碰巧最后一個方法的結(jié)果是3個r,于是該大模型給出最終答案“三個r”。

我們關(guān)心的問題是:大模型在上述回答過程中是否表現(xiàn)出“反思”能力?考慮到反思有多種不同的定義,我們定義“嚴格反思”為:重新思考自己的思考過程并判斷其正確性。根據(jù)大模型在測試中的表現(xiàn),它顯然沒有出現(xiàn)嚴格反思,因為它完全沒有判斷不同方法及其結(jié)果的正確性。進一步,根據(jù)前面第一個例子的分析,大模型不掌握邏輯推理的原理,所以也無法“調(diào)用”邏輯推理進行正確性判斷。在這種情況下,讓大模型“自我進化”將是極其危險的,它自己不能保證進化方向,也不能保證進化的結(jié)果是安全可控的。

實驗測試和理論分析一致表明:大模型的工作原理與人類智能存在根本性區(qū)別,尤其在數(shù)學(xué)、邏輯、概念、反思等方面;但是,大模型對人類語料中統(tǒng)計信息的處理和把握遠遠超過任何個人。

三、雙智社會及其陷阱

必須指出,人工智能技術(shù)并不限于大模型和生成式人工智能。事實上,規(guī)劃式人工智能、分析式人工智能和智能化裝備都取得了顯著成果,也出現(xiàn)了成功應(yīng)用,而且前景極其廣闊。因此,以為人工智能就是大模型及生成式人工智能,而其他類型的人工智能技術(shù)都可以忽略,是一個極大的誤解和誤判,將導(dǎo)致對人工智能的整體判斷出現(xiàn)致命性偏差。

這些類型的人工智能與包括大模型在內(nèi)的生成式人工智能是非常不同的,實例性和弱共識性對它們都不成立。由于實例性和弱共識性的作用,未經(jīng)專業(yè)訓(xùn)練的普通大眾可以直接操縱生成式人工智能,不能直接操縱另外三種類型的人工智能。因此,生成式人工智能的普及應(yīng)用將對普通大眾的個人成長和職業(yè)發(fā)展產(chǎn)生巨大、深刻的影響。現(xiàn)在流行一種說法:只要學(xué)會使用AI工具,就不會被人工智能淘汰。真相到底如何?

以程序員職業(yè)為例。假設(shè)一個程序,完全依靠人工編程需要10天,而用AI工具編程只需10分鐘,但還要進行人工查錯、糾錯。從編程效率的角度考慮,存在三種不同的情況:

第一種是簡單程序,對這種程序進行人工查錯糾錯,使之滿足設(shè)計要求,所需時間不超過10天。所以,簡單程序的開發(fā)將終止傳統(tǒng)軟件開發(fā)方式。

第二種是復(fù)雜程序,對這種程序進行人工查錯糾錯,或人工補充AI工具沒有生成的功能,所需時間明顯超過10天。所以,復(fù)雜程序的開發(fā)將繼續(xù)保持人工編程為主,同時在開發(fā)過程中使用AI工具作為輔助。

第三種是創(chuàng)新型程序,即以往沒有出現(xiàn)過的程序。AI工具可以幫助創(chuàng)新型程序的開發(fā),但其作用有限,主要依靠程序員的專業(yè)能力和創(chuàng)造力,所以仍然以人工編程為主,以AI編程工具為輔。

進一步考察簡單程序開發(fā)的三個基本步驟:1.理解編程需求;2.用AI工具生成程序;3.人工查錯糾錯。顯然,主要難度集中于步驟1和步驟3,而這兩個步驟都依賴于編程的專業(yè)知識和實際技能。

通過以上分析得出結(jié)論:只有簡單程序適合AI編程,但仍然要求程序員具備編程的專業(yè)技能。復(fù)雜程序和創(chuàng)新型程序仍將主要依靠程序員的專業(yè)技能和創(chuàng)造力。所以,不掌握編程專業(yè)知識和技能的人,即使學(xué)會了使用AI工具,仍然無法勝任人工智能時代的編程職業(yè)。

再以文員職業(yè)為例。文員可以使用大模型等AI工具自動生成文字、圖片、視頻等,但還要人工查錯、糾錯。從文案質(zhì)量的角度出發(fā),有三種情況:第一種是簡單文案,這種文案不需要相關(guān)領(lǐng)域的專業(yè)知識和技能即可完成人工查錯糾錯;第二種是復(fù)雜文案,需要相關(guān)領(lǐng)域的專業(yè)知識和技能才可以完成人工查錯糾錯;第三種是創(chuàng)意文案,主要依靠創(chuàng)意決定文案的質(zhì)量和效果。大模型生成的文案來源于訓(xùn)練語料中相關(guān)內(nèi)容的重復(fù)或重組,需要使用者判斷大模型生成內(nèi)容的恰當(dāng)性,這種判斷以相關(guān)領(lǐng)域的專業(yè)素養(yǎng)和創(chuàng)造力為基礎(chǔ)。

上述三種文案對文員的要求是不同的。不具備相關(guān)領(lǐng)域?qū)I(yè)知識、技能和創(chuàng)意的人,可以從事簡單文案生成;具備相關(guān)領(lǐng)域?qū)I(yè)知識、技能的人,可以從事復(fù)雜文案生成;具有創(chuàng)意并具備相關(guān)領(lǐng)域?qū)I(yè)知識、技能的人,可以從事創(chuàng)意文案生成。所以,只有簡單文案的生成不需要相關(guān)領(lǐng)域的專業(yè)知識和技能。不過,隨著AI工具的普及應(yīng)用,社會對各種文案尤其簡單文案的質(zhì)量要求必然快速提高,簡單文案的比例也將隨之快速下降,導(dǎo)致文員職業(yè)對各個領(lǐng)域?qū)I(yè)知識技能和創(chuàng)意能力的要求不斷提高。

還有一個“殘酷”的現(xiàn)實:一旦職業(yè)需要,所有人都能學(xué)會使用AI工具,包括具有創(chuàng)意和具備相關(guān)領(lǐng)域?qū)I(yè)知識和技能的人。于是我們得出分析結(jié)論:在受過高等教育的人群中,只會使用AI工具的文員將被淘汰。

程序員和文員是服務(wù)業(yè)的兩種最有代表性的職業(yè)。上述分析揭示了一個真相:相信“只要學(xué)會使用AI工具就不會被淘汰”,是現(xiàn)階段個人成長和職業(yè)發(fā)展的最大陷阱。

雙智社會是一個全新社會,而不是以往單智社會的加強版,人類必須拋棄單智社會的習(xí)慣思維,在雙智社會中重新尋找自己的位置。為此,一個關(guān)鍵問題是:在雙智社會中,人類智能相對于機器智能的核心優(yōu)勢是什么?

以下四種能力是人工智能的主要短板和人類智能的主要強項。第一,判斷能力。大模型由于數(shù)學(xué)、邏輯能力的先天局限,無法避免低級錯誤,進而導(dǎo)致判斷力不足。相對而言,人類具備數(shù)學(xué)、邏輯的基礎(chǔ)能力,在此基礎(chǔ)上能夠形成更強的判斷力,從而識別、糾正大模型的判斷失誤。

第二,專業(yè)能力。大模型依賴從訓(xùn)練數(shù)據(jù)中提取統(tǒng)計關(guān)聯(lián),越專業(yè)的內(nèi)容,數(shù)據(jù)相對越少,所以大模型的專業(yè)能力相對較弱。對于專業(yè)工作而言,必須依靠人類掌握的各個領(lǐng)域的專業(yè)知識和技能,對大模型的輸出進行查錯糾錯,并彌補大模型專業(yè)能力的不足。

第三,涉世能力。大模型不與真實世界直接交互,只接觸語言型數(shù)據(jù),也不具備語言與世界之間的對應(yīng)能力。相反,人類與現(xiàn)實世界直接交互,通過這種交互能夠獲得語言數(shù)據(jù)沒有記錄的大量真實世界信息,從而超越機器智能。

第四,生機能力,即生命力。機器智能沒有生命,也無法獲得生命體驗,一切生機現(xiàn)象都對機器“絕緣”。而人類最重要的特性根植于生命活動之中,生命的精彩是機器智能可望而不可即的。

上述四種能力中,判斷能力和專業(yè)能力是人類智能和機器智能共同擁有的,但在某些場合人類智能較強、另一些場合機器智能較強,人類成員必須強化自己的判斷能力和專業(yè)能力,才不會在職業(yè)生涯中被機器智能淘汰。另外兩種能力,涉世能力和生機能力是機器完全不具備的,是人類智能獨占的領(lǐng)地,也應(yīng)該是人類在雙智社會中長期發(fā)展的重點方向。以上分析概括為圖4.


圖4人類智能與機器智能的相對優(yōu)劣

本文的主要結(jié)論如下:人類與智能機器能夠在雙智社會中長期共存,相得益彰。但這種未來不是不經(jīng)人類努力就可以自然實現(xiàn)的,人類必須在雙智社會中弘揚人的獨特性,駕馭機器而不是甘當(dāng)機器的附庸。為此,必須堅持人工智能三原則[9],即堅持機器智能的另類性,堅持人類福祉的優(yōu)先性,堅持人工智能的可控性。

參考文獻

[1] A. M. Turing, Computing machinery and intelligence. Mind 49: 433-460, 1950.

[2] A. M. Turing, Intelligence machinery. 1948, In: The Turing Digital Archive.

[3] Cameron R. Jones and Benjamin K. Bergen. Large Language Models Pass the Turing Test. arXiv:2503.23674, 31 Mar 2025.

[4] 陳小平. 大模型關(guān)聯(lián)度預(yù)測的形式化和語義解釋研究. 智能系統(tǒng)學(xué)報,2023年7月,18(4): 894-900.

[5] 陳小平. 大模型:從基礎(chǔ)研究到治理挑戰(zhàn). 中國人工智能學(xué)會通訊,2024年1期:2-9頁.

[6] Konstantine Arkoudas, GPT-4 Can’t Reason, August 11, 2023. §1.3.2.

[7] Gilad Yehudai, Haim Kaplan, Asma Ghandeharioun, Mor Geva, Amir Globerson. When Can Transformers Count to n? arXiv:2407.15160, 21 Jul 2024.

[8] Kaixuan Huang et. al. MATH-Perturb: Benchmarking LLMs’ Math Reasoning Abilities against Hard Perturbations. arXiv:2502.06453v2, 12 Feb 2025.

[9] 陳小平. 人工智能三原則——探索機器智能與人類福祉的和諧共生之道. 探索與爭鳴, 2025, Vol. 1, Issue (3): 7-10.


本文2025年7月2日發(fā)表于微信公眾號 機器人人文(
),風(fēng)云之聲獲授權(quán)轉(zhuǎn)載。

閱讀最新前沿科技趨勢報告,請訪問歐米伽研究所的“未來知識庫”

https://wx.zsxq.com/group/454854145828


未來知識庫是“ 歐米伽 未來研究所”建立的在線知識庫平臺,收藏的資料范圍包括人工智能、腦科學(xué)、互聯(lián)網(wǎng)、超級智能,數(shù)智大腦、能源、軍事、經(jīng)濟、人類風(fēng)險等等領(lǐng)域的前沿進展與未來趨勢。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。 歡迎掃描二維碼或訪問https://wx.zsxq.com/group/454854145828進入。

截止到3月31日 ”未來知識庫”精選的百部前沿科技趨勢報告

(加入未來知識庫,全部資料免費閱讀和下載)

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
建議中年女人:穿襯衫多配“半裙和闊腿褲”,遮肉顯瘦又時髦

建議中年女人:穿襯衫多配“半裙和闊腿褲”,遮肉顯瘦又時髦

八分搭配
2025-07-26 00:41:13
江蘇和浙江養(yǎng)老金方案公布,養(yǎng)老金3000元,誰漲得多?

江蘇和浙江養(yǎng)老金方案公布,養(yǎng)老金3000元,誰漲得多?

數(shù)字財經(jīng)智庫
2025-07-25 14:32:51
算命說,這3屬相,最逃不過富豪命!中年后財運大開數(shù)錢數(shù)到手軟

算命說,這3屬相,最逃不過富豪命!中年后財運大開數(shù)錢數(shù)到手軟

人閒情事
2025-07-10 13:38:47
黑絲搭配高跟鞋與長筒靴的穿搭思路

黑絲搭配高跟鞋與長筒靴的穿搭思路

美女穿搭分享
2025-07-22 12:58:07
記者:博塔弗戈有意塔雷米,國米要價約1000萬歐

記者:博塔弗戈有意塔雷米,國米要價約1000萬歐

懂球帝
2025-07-25 19:56:28
【舊事】李肇星:金無怠是美國為反華編的,中國不認識這中國間諜

【舊事】李肇星:金無怠是美國為反華編的,中國不認識這中國間諜

年之父
2025-07-11 06:10:03
別只顧著“做”,學(xué)會“玩”!夫妻性生活的“升級”指南

別只顧著“做”,學(xué)會“玩”!夫妻性生活的“升級”指南

精彩分享快樂
2025-07-14 00:33:22
廣西目前無本地病例!專家提醒:出現(xiàn)這些癥狀需盡快就醫(yī)

廣西目前無本地病例!專家提醒:出現(xiàn)這些癥狀需盡快就醫(yī)

環(huán)球網(wǎng)資訊
2025-07-25 17:55:27
湖北分數(shù)線最低的民辦專科大學(xué):需要214分錄取(2025年參考)

湖北分數(shù)線最低的民辦專科大學(xué):需要214分錄取(2025年參考)

侃故事的阿慶
2025-07-26 01:24:26
劉宇寧真是從小帥到大呀,難怪從初中時起就情書海海

劉宇寧真是從小帥到大呀,難怪從初中時起就情書海海

動物奇奇怪怪
2025-07-26 01:51:21
段奕宏:娶了日籍師妹為妻,結(jié)婚14年零緋聞,活成人生贏家

段奕宏:娶了日籍師妹為妻,結(jié)婚14年零緋聞,活成人生贏家

手工制作阿殲
2025-07-26 00:50:28
再見掘金!恭喜雷霆!威少回歸輔佐SGA?網(wǎng)友:兩連冠穩(wěn)了

再見掘金!恭喜雷霆!威少回歸輔佐SGA?網(wǎng)友:兩連冠穩(wěn)了

kio魚
2025-07-25 15:35:00
突發(fā):泰柬再次交火

突發(fā):泰柬再次交火

魯中晨報
2025-07-25 08:54:31
內(nèi)爾高:我知道來到阿森納對我是一個提升,會為球隊貢獻自己

內(nèi)爾高:我知道來到阿森納對我是一個提升,會為球隊貢獻自己

懂球帝
2025-07-26 01:04:56
王室大地震!喬治王子12歲決定震撼全家,凱特王妃怒斥!

王室大地震!喬治王子12歲決定震撼全家,凱特王妃怒斥!

全球奇趣娛樂八卦
2025-07-25 05:30:03
她濫交、吸毒、出軌,“中國最美女畫家”,最終以才華征服世界

她濫交、吸毒、出軌,“中國最美女畫家”,最終以才華征服世界

方待夜半聽君語
2025-07-21 07:12:17
王思聰女友懶懶深夜直播 自曝打破“半年換女友”魔咒

王思聰女友懶懶深夜直播 自曝打破“半年換女友”魔咒

手工制作阿殲
2025-07-26 00:33:38
回顧:勞榮枝臨刑前一天,吃了碗肉絲細面,注射死刑表情極為扭曲

回顧:勞榮枝臨刑前一天,吃了碗肉絲細面,注射死刑表情極為扭曲

談史論天地
2025-06-30 20:30:03
索爾斯克亞:礦工實力強勁而我們防守不夠理想,有些球員歸隊太晚

索爾斯克亞:礦工實力強勁而我們防守不夠理想,有些球員歸隊太晚

雷速體育
2025-07-25 10:41:16
不就說了點真話,又讓誰不爽了?

不就說了點真話,又讓誰不爽了?

橘子娛樂
2025-07-22 16:15:21
2025-07-26 02:48:49
人工智能學(xué)家 incentive-icons
人工智能學(xué)家
人工智能領(lǐng)域權(quán)威媒體
4046文章數(shù) 37239關(guān)注度
往期回顧 全部

科技要聞

36款熱門車高危智駕場景測試,“團滅”!

頭條要聞

8旬翁下葬前墓地被人埋死狗沿路埋鐵釘暗器 官方介入

頭條要聞

8旬翁下葬前墓地被人埋死狗沿路埋鐵釘暗器 官方介入

體育要聞

3年過去了,她還是歐洲杯上最酷的姐

娛樂要聞

汪蘇瀧不忍了 !張碧晨痛失《年輪》演唱權(quán)

財經(jīng)要聞

劉煜輝:當(dāng)下重要不是找確定性而是轉(zhuǎn)折點

汽車要聞

李斌一口氣講了近3個小時樂道L90 原因是為啥?

態(tài)度原創(chuàng)

本地
游戲
親子
公開課
軍事航空

本地新聞

換個城市過夏天|風(fēng)拂鹽湖,躲進格爾木的盛夏清涼

《無主之地4》已開發(fā)完畢進廠壓盤

親子要聞

小宸哥歷險記之門外有人:不要給陌生人開門

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

吳謙少將任中國駐埃及使館國防武官

無障礙瀏覽 進入關(guān)懷版 主站蜘蛛池模板: 仲巴县| 石渠县| 日土县| 陕西省| 永福县| 汝州市| 浦城县| 喀喇| 邢台县| 乃东县| 美姑县| 舞阳县| 营口市| 静宁县| 江川县| 和顺县| 汉寿县| 如皋市| 郸城县| 上饶县| 黄石市| 米脂县| 南宫市| 兴安县| 太白县| 酒泉市| 岑巩县| 台南市| 乌拉特中旗| 江华| 五家渠市| 伊金霍洛旗| 德昌县| 嵊泗县| 开化县| 山西省| 平谷区| 南通市| 米易县| 新营市| 普兰县|