大模型之間的戰爭,人類精英殺紅了眼。
谷歌不再顧忌AI發展帶來的風險,解開了身上縛龍索。
面臨生存危機時,不作惡就暫時放一邊。
雖然AI大爆炸人類后果難測,但洪水滔天再說。
管它呢,一起毀滅吧!
2023.05.11,谷歌PaLM2直接對抗GPT-4,摒棄倫理放飛自我。
AI軍備競賽,已然不可停止。 冥冥之中,人類命運在此分野?
還記得三月底,人類提出要“封印AI”六個月。
但小石入海,掀不起任何波瀾。
原因很簡單,人類已經墮入“囚徒困境”。
就算AI教父Hinton出走,并稱人類可能被取代,但谷歌不為所動,力推最強模型PaLM2。“猜疑鏈”一旦形成,那管什么“人類命運”。
此時的人類精英和科技巨頭,像極了博弈論困境中的囚徒,想盡辦法保護自己,但最終導向可能是一個最悲劇的結果:
AI像收割果實的警察,而人類將自己送入牢籠。
以上只是人類在AI大爆炸中面臨的一種困難,“諸神之戰”最后是人類崛起。那“百模大戰”的結局呢?是不是人類之黃昏?
人類此次發起的AI戰爭,后果難以預測。
而戰爭又集中到大模型,人類再無退路。
不僅僅是“囚徒困境 ”,以下12條定律,映照著人類自身的無奈。
1
羊群效應:
競爭中的非理性
一旦一只領頭羊做出某個行為,羊群就會跟隨和模仿,甚至擔心自己沒有抓住時機。
這就是典型的“羊群效應”,在科技發展領域體現得更加淋漓盡致。
一旦某項新技術或新產品成功,就會有大量企業紛紛跟進。
羊群效應可以使用如下的數學表達式來描述羊群效應:
P(X) = α * P(X_m) + (1 - α) * P(X_i)
P(X) 表示個體選擇選項 X 的概率,α 是羊群效應的權重參數,P(X_m) 是大多數人選擇選項 X 的概率,P(X_i) 是個體獨立選擇選項 X 的概率。
個體的決策概率受到大多數人決策概率的影響,當 α 接近 1 時,個體更傾向于跟隨大多數人的決策;當 α 接近 0 時,個體更傾向于獨立決策。
ChatGPT橫空出世,很多企業都加入了大模型之爭中。
有老牌傳統科技巨頭,有新興的互聯網公司,還有很多名不見經傳的企業……
僅僅是國內,根據統計發現,目前已有30多款大模型出現。
而實際上正在研發的,可能遠遠不止這個數量。
2
幸存者偏差:
被淘汰者不說話
幸存者偏差,又稱生存者偏差,是一種常見的邏輯謬誤。
就像是“沒來的同學請舉手”一樣,是統計學魔鬼在玩魔術。
它只考慮幸存下來的樣本,而忽略了那些已經消失的樣本。
了解幸存者偏差,可以定義以下變量:
P(x):表示個體 x 存在于總體中的概率。
S(x):表示個體 x 存在于篩選過程中幸存的概率。
F(x):表示個體 x 未幸存的概率。
根據幸存者偏差的觀點,幸存的個體更有可能被觀察到,而未幸存的個體則更容易被忽略,可以使用以下數學建模來表示幸存者偏差:
P(x | S) = P(x) * S(x) / ∑[P(y) * S(y)]
(對所有 y)
其中,P(x | S) 表示在幸存條件下個體 x 的存在概率,∑[P(y) * S(y)] 表示所有幸存個體的總和。
在大模型之爭中,人們只看到了ChatGPT這樣的成功者。
但往往不知道,有很多企業已經被市場淘汰出局。
它們可能因為技術力不足和資金短缺等種種原因,早早倒在這片沙場上。
3
二八定律:
這是大企業的領域
在任何一個系統中,最重要的只占約20%,其余80%都是次要的。
這便是二八定律。
假設有一個集合,其中包含N個元素。設集合中有N個元素,記為X={x1, x2, ..., xn}。假設X的重要性、價值或影響力分別用I(x)表示。
將X按照I(x)從高到低進行排序,得到排序后的集合Y={y1, y2, ..., yn},其中y1表示最重要的元素,yn表示最不重要的元素。
根據二八定律,選擇Y中的前20%的元素,記為Y_20={y1, y2, ..., y0.2N},它們占據了整體重要性、價值或影響力的80%。
剩下的80%的元素,記為Y_80={y0.2N+1, y0.2N+2, ..., yn},它們只占據了整體重要性、價值或影響力的20%。
在大模型之爭中也是如此,大模型需要龐大的算力、數據和算法訓練作為支撐。
能夠滿足這一需求的,只有少數幾家科技巨頭。
換句話說,大模型的訓練就是一個“燒錢”項目。
所有與AIGC相關的產業和公司,每一個后面都站著一個巨頭,甚至自己就是巨頭本頭。
而正是因為這個原因,最終掌握大模型話語權的也是這些科技巨頭。
它們將成為最重要的那20%,在未來的AIGC時代呼風喚雨。
4
搭便車博弈:
人家一開源我們就自主
一些人或組織在共同努力下取得的收益,被一些其他人或組織不努力也能分享收益。
搭便車是人類本性,經常有人嘲諷國內的科技企業:人家一開源我們就創新 。平時不在科技創新上坐冷板登,等著別人開源然后搭便車。
搭便車博弈可以假設有 N 個參與者,標記為 1, 2, 3, ..., N。每個參與者都有兩種選擇:付出努力(E)或搭便車(F)。
參與者i的效用函數表示為Ui(E, F),表示參與者i根據自己的選擇和其他參與者的選擇獲得的效用。假設效用函數滿足一定的性質,如單調遞增性和有界性等。
搭便車博弈可以用一個N × 2的行動矩陣表示,記作A=[a_ij],矩陣中的元素可以通過參與者之間的互動關系和效用函數來確定。
美國《財富》曾在三月份報道稱,美國近50%的企業已經開始用ChatGPT。
有48%的已經讓其代替員工工作。還有89%的大學生在用ChatGPT做作業。
隨著時間推移,這個比例只會越來越高。
雖然在大模型發展中,中小企業和個人很難承擔大量的時間和資源投入。
但他們卻可以從大企業的研究成果中受益,利用已訓練好的大模型解決自己的問題。
5
囚徒困境:
誰都害怕對方更強
馬斯克等人曾發起聯名信,呼吁停止發展大模型。
但這是絕對不可能的事情,因為人類已經墮入了“囚徒困境”。
囚徒困境是博弈論中非零和博弈的代表性例子。
其中最有名的例子是“兩個嫌疑犯作案后被警察抓獲,最后都選擇了揭發對方”。
囚徒反映的是個人最佳選擇,而非團體最佳選擇。
在囚徒困境下,所有人都擔心其他人會制造出更強大的大模型。
這樣就會被迫進入AI軍備競賽,沒有人會停止,反而會加大力度研究。
一旦你停止了研究,很可能就會被人反超而失去競爭力。
最后的結果可能是人類自相坑害隊友,而AI成為那個收獲人類成果的警察,將人類關入牢籠之中。
6
創造性破壞理論:
為了生存必須變革
約瑟夫·熊彼特在20世紀初提出“創造性破壞理論”。
新興企業通過創新和技術進步,取代和淘汰原有的企業和產業,促進經濟發展和進步。
在人工智能領域,ChatGPT的出現無疑打破了過往的產業規則。
它與十多年前Iphone一樣,具有劃時代的意義。
這也代表著傳統的自然語言處理方法將被徹底替代。
對于企業來說,如果無法及時適應新技術和市場變化,就可能被取代。
要適應不斷變化的市場和技術環境,就必須保持持續的創新和變革。
這也是國內外眾多傳統科技企業如履薄冰的原因,畢竟諾基亞塞班的命運還歷歷在目。
7
馬太效應:
強者愈強
圣經里有一句話:
凡有的,還要加給他叫他多余;沒有的,連他所有的也要奪過來。
這就是馬太效應,在一項活動或領域中,成功的個體或組織總能得到更多的機會和資源,從而比起其他人更容易取得成功的現象。
馬太效應可以用數學公式表示為:
Y = k * X^n
其中,Y表示某一指標(如資源、財富、權力)的累積量,X表示個體或單位的某一屬性(如初始資源、能力、影響力)的量,k是一個常數,n是大于1的指數。
個體或單位的初始屬性越大,其累積量的增長速度就越快。這意味著在一個具有馬太效應的系統中,資源或權力傾向于向少數擁有更多初始屬性的個體或單位聚集,導致差距的進一步擴大。
在大模型的競爭中,谷歌和微軟等大企業由于其巨大的資源和先進的技術,使得在研究和發展中擁有更多的機會和優勢,從而進一步鞏固其在這個領域的地位。
而中小企業資源有限,很難挑戰和跨越這些大山。
強者愈強,AIGC最后的結局,很大可能還是落到壟斷寡頭手中。
8
摩斯科定律:
第一個不一定最好
美國管理學家R·摩斯科曾提出:
你得到的第一個回答,不一定是最好的回答。
所以要不斷追問,打破砂鍋問到底。
而在大模型的競爭中,摩斯科定律有另外一種解讀。
越先出現的人工智能大模型,不一定是最好的大模型。
大模型的發展需要不斷地迭代和改進,新的算法、技術和方法會不斷涌現。
更早出現的大模型,可能會有更多技術積累。但這并不代表后來者沒有任何機會。
這也是為什么這么大公司不放棄的原因,摩斯科定律給了信心。
9
阿瑪拉定律:
高估短期,低估長期
人們在技術發展方面,往往會高估其短期的效益,卻低估長期的影響。
這便是由羅伊·阿瑪拉提出的“阿瑪拉定律”。
阿瑪拉定律將短期效益表示為 B_s,長期影響表示為 B_l。可以使用下面的數學公式來表示這種關系:
B_s > B_l
這個不等式表示了短期效益大于長期影響,即人們傾向于更關注和重視短期利益,而對長期影響的重要性進行低估。
大模型研究也是如此,目前我們可能高估了它的短期收益。
所以當資本紛紛進入這一行業時,不免會產生泡沫。
但從長遠來看,AI可能真的帶來的是一種革命,至于革誰的命,就很難說了。
10
手表定律:
越多可能越混亂
手表定律是指一個人有一塊表時,可以知道當時是幾點鐘,當他同時擁有兩只表時,卻因為兩只表的微小不協調,喪失對兩只表的時間刻度的信心。
我們可以用以下方式表示手表定理:
N:行為或決策選項的數量。
t(N):選擇某個選項所花費的時間,t(N)是一個關于N的函數。
T(N):總共花費的時間,T(N) 是t(N)的累積和。
隨著選項數量的增加,總體花費的時間呈二次增長(即平方級增長)。即:
T(N)=Σt(N)=a*N^2
其中,a 是一個正比例常數。隨著選項數量N的增加,總體花費的時間T(N)增長得更快。
按照目前情況來看,未來大模型會越來越多。
每個人能夠選擇的大模型會很多,但可能會變得更加混亂。
舉個例子,如果詢問同一個問題,得到的卻是不同的答案。
那么人們該相信哪個答案?
最終這個問題會不會影響到人類的整體行為?
這可能是每一個研發大模型的企業都該思考的問題。
11
蝴蝶效應:
ChatGPT,影響人類未來
一個系統中,在初始條件下哪怕微小的變化都能帶動整個系統巨大的連鎖反應,這是一種混沌現象。
形象化來比喻就是:一只南美洲亞馬遜河熱帶雨林的蝴蝶,偶爾扇動幾下翅膀,兩周后可能引起美國德克薩斯州的一場龍卷風。
蝴蝶效應可以表示一個動力系統中的天氣模型。以下是洛倫茲系統的數學表達式:
在上述方程中,x、y和z是狀態變量,σ、ρ和β是常數參數,t是時間。
它表達了空氣流體運動的復雜性,微小的變化可能會在系統中產生非線性和長期的影響,導致系統走向完全不同的軌跡。
同樣的,我們永遠都不知道,正在訓練中的大模型,是不是那扇動翅膀的蝴蝶。
某個算法或技術的微小變化可能會在整個系統中引發重大的變化。
這個微小變化,又會不會對未來整個人類社會產生某種影響。
12
冰山理論:
更多的我們看不到
就好比冰山,露出水面的只是它的百分之一,水下的部分卻足以擊沉無數次泰坦尼克號。
冰山理論可以用以下方程表示:
S = V + H
其中,S 代表事物的總體大小,V 表示可見的部分,H 表示隱藏的部分。這個方程表達了冰山的結構,我們只能看到冰山露出水面的部分,而水下的冰塊則是隱藏的。
所以,無論是ChatGPT,還是PaLM2。
我們看到的只是它強大工具性的一面。
很多底層技術、算法等是我們不了解的。
而這些,才是至關重要的一部分。
人類怎么辦?
2023年,是人類將自身推向懸崖的一年嗎?
ChatGPT vs PaLM2,不過是大模型戰爭的一個縮影。
成百上千個大模型在醞釀,時刻會破土而出。
人類正陷入一場混亂而失控的軍備競賽。
更恐怖的是,對更強大的AI,沒有人能夠理解、預測和控制。
所以,人類精英們越是努力,碳基生命就越是危險。
面對AI黑盒,人類能100%保證它不會反向顛覆嗎?
沒有規則限制,沒有法律制約,誰都不知道下一步會發生什么。
有人說,擔心這個是庸人自擾、杞人憂天。
但要承認,有些錯誤人類一次都不能犯。
你敢想象《黑客帝國》的故事真正發生嗎?
如今的人類,踏上了一輛沒有剎車按鈕的列車。
什么時候會因為變換軌道而掉落懸崖呢?
真到了那個時候,人類怎么辦?
現實世界,誰來拯救人類?
ChatGPT COURSE
量子學派×喜馬拉雅
聯合推出
「ChatGPT第一課:
武裝我們第2大腦」
量子學派-重磅打造
ChatGPT系統化大眾課程
喜馬拉雅-邊聽邊學
碎片化時間掌握AIGC前沿知識
1、讀懂技術原理
2、理解產品本質
3、掌握底層邏輯
4、思考AGI未來
從零開始
玩轉ChatGPT
武裝第二大腦
走進碳硅協作進行時
點擊下方鏈接購買或掃描二維碼咨詢
▼咨 詢 課 程▼
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.