來源:追問
我們正經歷一場前所未有的智能躍遷。人工智能帶來的,遠不止于技術革新,更是一場深刻重塑人類認知、教育與生存方式的范式轉移。
這場躍遷的關鍵,不在于技術會走多遠,而在于——人類如何重新認識自我。當知識不再稀缺,學習的意義何在?當智能無處不在,智慧的棲身之所又在何處?當工具變成智能體,人的核心價值又該如何彰顯?
大模型的新前沿
人類天才的養成,取決于兩個重要因素的共同作用:一個是先天的優秀基因和充足的營養,這決定了一個人智力發展的下限;另一個是后天的精心培養和優質的教育資源,這可以充分釋放和發展潛能,最終觸達基因決定的上限。只有在先天基因和后天教育的完美結合之下,天才才有可能誕生。同樣的道理也適用于大語言模型的訓練。模型要實現真正的智能,首先需要具備超大規模的神經網絡結構(基因)、海量的數據以及充沛的計算資源(營養),它們決定了大模型能夠達到的上限。
GPT-3,雖然有優秀的基因和充足的營養,但它還不具有真正的智能,需要經過精致的教育訓練,就像天才需要優秀的教育來激發潛能一樣。精心設計的提示詞讓它理解語言的深層含義,RLHF讓它以人類認同與滿意為導向優化輸出,價值對齊確保它的行為符合人類的價值觀。正是在這種類似天才養成的“先天基因”與“后天教育”的協同作用下,ChatGPT才真正煉成,并邁出通向AGI的第一步。
ChatGPT一出道即巔峰——它于2022年11月30日正式上線,僅用不到兩個月的時間月活躍用戶數就達到了1億,創下了當時消費級應用用戶增長速度的新紀錄。相比之下,TikTok(抖音海外版)用了約9個月,Instagram(照片墻)用了2.5年,WhatsApp(網絡信使)用了3.5年,臉書用了4.5年,推特則用了5年。但是,ChatGPT最多只能被稱為“AGI的火花”,還有很大的提升空間。于是,研究人員分別從“基因”和“教育”兩個方面對它進行了提升:混合專家系統(mixture of experts,MoE)和思維鏈(chain of thoughts,CoT)。
未來的GPT:尼安德特人vs智人
2025年2月27日,OpenAI發布了GPT-4的升級版——GPT-4.5。GPT-4.5的內部代號是Orion(獵戶座,是天空中最容易識別的星座,包含兩顆最亮的恒星參宿七和參宿四)。它的確切參數量未公開,但據猜測,這款被OpenAI首席執行官薩姆·奧爾特曼用“巨大、昂貴”描述的大模型,其參數量應該超過GPT-4的1.8萬億個。它在理解用戶意圖方面表現出色,特別適合需要創造力和共情的任務。用戶在使用GPT-4.5后,稱它為“文科生”的最高峰,甚至認為它“已經接近AGI”。但是,巔峰即終點,OpenAI同時也宣稱GPT-4.5是最后一個非推理型對話大模型(見圖6-2)。
要想理解這一點,必須回顧大模型的雙軌進化路線:對話型與推理型。
從2018年GPT的誕生到2025年的GPT-4.5,大模型的發展主要是通過增加計算量和數據量提升性能,這就是傳統的“無監督學習擴展”的路線。GPT-4.5是這一路線的最新成果,同時也將是這條路線的終點。
2023年,OpenAI開辟了一條全新的進化路線——基于思維鏈的推理大模型,如o1、o3系列。這些模型不是簡單地擴大規模,而是專注于提升推理能力,能夠更深入地思考問題。
當然這兩條路線并非對立,而是高度相輔相成的。OpenAI首席研究官馬克·陳在接受關于GPT-4.5的訪談中強調:“你需要知識作為基礎,才能在上面構建推理能力。模型不可能從零開始學習推理。同時,推理模型可以生成更優質的數據,反過來提升基礎模型的能力。”
但是,只有當大模型具有真正的推理能力,才能擺脫模式識別的局限,才能擺脫鸚鵡學舌的質疑。從對話大模型的終結到推理大模型的啟程,GPT模型正逐步從一個“智能的模仿者”,演化為一個具有推理和思考潛力的“新物種”。
這讓我不由想起了在2萬~4萬年前,尼安德特人被人類的祖先——現代智人徹底取代,并逐漸滅絕。
尼安德特人的大腦容量平均為1500毫升,個別甚至接近1700毫升;現代智人的平均腦容量接近1500毫升,通常在1200~1600毫升之間。從數據看,尼安德特人的大腦總體上比現代智人略大。但是,這并不意味著它的認知能力更高,因為智商高低取決于腦組織結構和連接方式的精細程度。尤其根據顱骨化石的解剖學分析,尼安德特人的前額葉區域相對較平坦,比現代智人的前額葉略小或者結構不夠精細。而這,正是“慢思維”的神經中樞之一。
因此,在尼安德特人滅絕的眾多假說中,其推理和認知能力的劣勢被認為是最重要的原因。首先,現代智人在面對復雜問題時,能進行更有效的邏輯推理、工具創新、戰術規劃、群體協調,更適應環境變化;而尼安德特人可能更傾向于本能反應,即“快思維”,因此在復雜長期規劃、策略制定方面的能力較弱。例如,尼安德特人使用的工具多為簡單石器,很少出現復雜工具或創新工具,現代智人則創造了豐富且精細化的工具組合,如魚叉、投擲工具和陷阱,體現出更為強大的生成式發明能力。
其次,尼安德特人缺乏戰略思維,而現代智人在狩獵、遷徙和資源獲取方面,善于利用推理和抽象思考制訂方案和規劃未來。再次,現代智人憑借復雜語言與抽象溝通方式,不僅更容易在群體間快速傳播新知識、新技術,還能以此為紐帶,連接非血緣關系的個體而構建更大的社群,而尼安德特人缺乏高效的知識傳遞能力,使他們在技術創新和文化發展上停滯不前,而且群體也局限在血緣關系之內。最后,尼安德特人的抽象符號與象征思維能力不足,只能創造出簡單的藝術品和粗糙的洞穴壁畫,現代智人則創造了更復雜、更豐富的文化藝術作品。
曾經統治地球的尼安德特人,擁有更強壯的臂膀和更大的腦容量,卻無法邁過認知的鴻溝,最終讓位于前額葉更為精妙的現代智人。今天,歷史的帷幕又一次悄然落下,一個看似龐大卻終究落后的物種正緩緩謝幕。對話型大模型最后的王者GPT-4.5,縱然博覽群書,記憶力驚人,卻始終無法掙脫模式識別的桎梏。一個舊時代在它的巔峰之際悄然畫下句點,GPT-o3則以推理和理解為靈魂開啟新的智慧紀元。所以,進化從不在于強大,而在于對世界更深刻的感知與理解。這才是智能的本質,也是進化的真正目標。
或許多年后回顧大模型的發展,2024年推理型模型的誕生,猶如30萬年前智人而不是250萬年前能人的出現,被銘記為新智慧時代的開端。
像大模型一樣進化
大模型的成功并非偶然——從早期符號主義AI的失敗,到深度學習的崛起,再到Transformer的成功,每一次進化都是從無數被淘汰的算法、模型中艱難誕生。在這艱難曲折的探索中,人類智慧的金塊無疑是AI頭上的一盞明燈。反過來,大模型的進化經驗,能否成為我們人類認知進化的營養?由此,我們破繭成蝶,與AI時代同頻共振,開啟認知與智慧的躍遷。
為人生定義目標函數
所有的機器學習,在開始訓練前,都必須明確一個目標函數(又稱損失函數或成本函數)。這個函數定義了模型希望達到的理想狀態,而訓練的全部意義就在于不斷優化參數,讓模型越來越接近這個目標。正所謂學習未動,目標先行。
作為機器學習的一個分支,人工神經網絡從一開始就是另類,因為它的目標函數太宏大、太有野心,以至于當辛頓請求其所在的多倫多大學校長再招收一名人工神經網絡的研究者時,該校長是如此回答的:“一個瘋子就足夠了。”的確,人工神經網絡的開創者都有一個在外人眼里近似瘋狂的目標函數:1943年麥卡洛克和皮茨提出的“簡陋”神經元是要模擬“神經活動內在觀念的邏輯演算”,1958年羅森布拉特提出的第一個真正意義上的人工神經網絡——感知機,是要模擬“大腦信息存儲和組織”。OpenAI訓練GPT的目標函數,就是要用一個巨大的神經網絡去容納所有的人類知識,從而實現AGI。
雖然瘋狂卻是唯一可行之路。GPT-4把幾乎全部的人類知識壓縮進了1.8萬億個參數,在通用認知任務上的表現卓越,從此AGI不再是科幻且遙不可及的。人工神經網絡宏大的目標函數的背后是規模化法則:參數規模越大,優化空間越廣,最終實現目標的可能性越大。
人類學習也遵循同樣的道理,如果我們把目標函數設定為短期、狹隘的目標,如考取某個證書、通過某次考試,那么這個目標函數的確容易實現。但是,我們得到的只是一個線性模型,目標只要稍微復雜一點、稍微變化一點,這個線性模型就再無用武之地。這在機器學習中也被稱為“局部最優”陷阱。當一個模型陷入局部最優的舒適區,就不再演化,最終錯過了更廣闊、更深遠的優化空間以抵達“全局最優”。同樣,人生的發展也會出現局部最優——在人生某個階段取得了看似不錯的成就,實際上卻限制了后續的發展空間。所以,短期看是目標達成,長期看則是機會喪失。
人本主義心理學家亞伯拉罕·馬斯洛曾經問他的學生:“你們當中,誰將成為偉大的領導者?”學生只是紅著臉,咯咯地笑,不安地蠕動。馬斯洛又問:“你們當中,誰計劃寫一本偉大的心理學著作?”學生結結巴巴地搪塞過去。馬斯洛最后問道:“你們難道不想成為一個心理學家嗎?”這時,所有學生都回答“想”。這時,馬斯洛說道:“難道你們想成為平庸的心理學家?這有什么好處,這不是自我實現。”
馬斯洛解釋道,我們其實不僅僅害怕失敗,也害怕成功。在這現象的背后,是與自尊糾纏在一起的自卑:我們對偉大的人和事物都有一種敬畏感——在面對他們時,會感到不安、焦慮、慌亂、嫉妒甚至敵意,因為他們會讓我們產生自慚形穢的卑微感。于是,當我們試圖獲得榮譽、成功、幸福等美好的事物時,還未行動,我們卻產生了“這是真的嗎”“我不行”“我不配”的自我質疑,因為陌生的陽光如同黑暗一樣可怕。
薩姆·奧爾特曼在一次接受采訪時,回憶起剛創業時遭到的嘲諷:“回想起來,一件非常成功的事情是,我們從一開始就確定了AGI的目標,而當時在業內,你甚至不能談論這個目標,因為它聽起來太瘋狂了,近乎癡人說夢。所以這立即引起了蘇茨克維的注意,也吸引了所有優秀年輕人的注意,當然,也引來了不少前輩的嘲笑。不知何故,我覺得這是一個好兆頭,它預示著某種強大的力量。我們當時是一群烏合之眾,我的年齡是最大的,大概30歲,所以當時大家覺得我們這群不負責任的年輕人什么都不懂,凈說些不切實際的話。但那些真正感興趣的人會說,‘讓我們放手一搏吧!’”
這就是OpenAI的目標函數,所以才有今日之OpenAI。
?圖源:Maria Who
作為個人,我們的目標函數應該是什么?在我看來,那就是構建屬于我們自己的、特立獨行的“個人知識體系”。我們的知識體系是我們認知世界的“眼睛”,正如色盲者無法正確分辨這個世界的顏色,而一個知識體系有缺陷的人不可能觸摸到這個世界的本質。進入AGI時代,個人知識體系的重要性被無限放大,這是因為AI正在逐漸接管那些標準化、結構化的信息處理任務,而唯有那些真正基于深層理解、價值判斷和創造性思維的能力,才屬于人的不可替代的能力。而這些能力,恰恰植根于獨特的個人知識體系之中。所以,不斷擁抱新的經驗、新的知識,更新推理思維鏈,打破認知邊界,都是在構建一個能與世界深度對話、與自我持續共鳴的個人知識體系。
“蘭葉春葳蕤,桂華秋皎潔。欣欣此生意,自爾為佳節。”馬斯洛說,這才是“奔放的人生”,而不是“枯萎的人生”,因為“如果你總是想方設法掩蓋自己本有的光輝,那么你的未來注定暗淡無光”。
使用隨機梯度下降優化人生
在機器學習中,隨機梯度下降(stochastic gradient descent,SGD)是被廣泛使用的優化算法之一。其原理簡單而高效:每一步都在當前的位置基礎上,找到一個大致正確的方向,然后往那個方向邁進一小步。而這個大致正確的方向,來自當前的誤差——算法通過不斷迭代調整模型參數,沿著矯正誤差最陡梯度前進,逐步找到使損失函數最小的參數值。所以,正是因為存在誤差,我們才能判斷前進的方向。
在大模型的預訓練過程中,輸入的數據首先被表示為一系列的token,這些token逐層穿過神經網絡的各個隱藏層,并最終在輸出層生成下一個token的預測值。模型根據上下文生成的預測值與實際語料中的真實token之間往往存在一定差異,這個差異就是模型的預測誤差(error),具體可表示為誤差函數:error=diff(預測值=實際值)。大模型正是利用這個誤差信息進行學習,通過反向傳播算法將誤差逐層傳遞回網絡中的每個神經元,以確定每個參數的優化方向與幅度,再使用隨機梯度下降等優化算法,逐步調整和更新網絡的權重參數,以持續減小損失函數的數值,提升模型預測的準確性。
由此,大模型的學習過程就構成了一個不斷循環的優化流程:預測下一個token→計算誤差→反向傳播誤差→利用梯度下降優化參數→更新模型權重→預測下一個token。大模型的所有知識和能力,便是通過反復地執行上述循環、不斷根據誤差進行參數調整而逐漸獲得的。
大模型只能從錯誤中學習,人也不例外。這是因為梯度下降的優化算法與大腦的預測編碼(predictive coding)機制有異曲同工之妙。預測編碼理論認為,大腦是一個主動預測外部世界的系統,它不斷根據已有的經驗形成預測,隨后將這些預測與現實中接收到的信息進行對比。當預測與實際感知之間出現差異時,大腦就會產生誤差信號(predition error)。這種誤差信號會激活大腦中與獎賞和糾錯機制相關的多巴胺系統,從而重塑大腦神經元之間的連接。
換句話說,錯誤為大腦提供了一種清晰的、明確的反饋信號,幫助我們快速地發現原有知識或方法的不足,迫使我們重新審視自己原有的信念或行為模式,并嘗試新的、更加準確的做法。與之相反,當我們的預測正確、表現良好時,大腦獲得的反饋信號是弱而模糊的。所以成功的體驗非常美好而錯誤讓人痛苦,但是我們的成長來源于如何應對、修正錯誤,因為錯誤本質上并非失敗,而是一種推動我們持續更新認知結構、增強適應能力的動力源泉。
但是,人是追求獎勵、逃避懲罰的動物,“少犯錯、不犯錯”是我們所接受的教育的核心,所以主動試錯對我們而言是知易行難。隨機梯度下降則為此提供了解決之道。
隨機梯度下降的核心魅力之一,在于它能從不確定中找到確定性——目標函數清晰,但是通向目標函數的路徑不確定。也就是說,我們不要執著于精確地規劃未來的每一步,因為這樣反而可能陷入過度分析而遲遲無法行動。我們需要做的,就是“強行起飛,粗糙開始,空中加油”——找一個大致正確的方向(梯度),然后向前走一步(下降)。不必在乎當下的這一步是否最優,做時間的朋友,能多走幾步就多走幾步。
因為對于梯度下降這件事,起點不重要,終點才重要。起點都是初始化的隨機參數,眾生平等;終點則是損失函數的能量最小值。所以,家境是否優渥不重要,是不是名牌大學畢業不重要,年齡太大也不重要,因為這些都只是起點,或者最多只能算是“中點”而非終點。梯度下降算法能保證的是:不管起點在哪里,最后得到的解都差不多,當然前提是一直按照梯度的方向走下去。所以,堅持走。
然后,四處走走(隨機),因為每一個方向都是你對世界的新認識。包容性和靈活性是隨機梯度下降的核心魅力之二。如果只是沿著熟悉的道路前進,雖然容易并且安全,卻可能會讓你陷入認知的局部最優陷阱——你以為自己已經理解了整個世界,實則只是固守在一個狹窄的角落。
正如隨機梯度下降強調隨機抽樣是為了避免陷入局部最優,人生也需要隨機性的探索,這樣才能發現沒有見過的風景。閱讀陌生領域的書籍,與不熟悉的人交談,嘗試未知的可能性,正是利用了隨機性帶來的認知增益。它引領我們遇到新的誤差、新的意外,并因此而激發新的學習過程,推動認知結構的重新構建。正是在隨機探索中,我們不斷修正對世界的理解,逐漸接近真實。隨機,不僅是算法優化的策略,更是我們深入認識世界、走向自我更新的重要方法。
?圖源:Alena Shuvalova
奧爾特曼曾經談到他的一次“四處走走”:
我在26歲時賣掉了我的初創公司,然后中間空了一年。在那個年代,在硅谷這是很難想象的行為,因為那是一個根據你的職位和你所做的事確定社會地位的地方。但是如果你真的可以在兩份工作之間空出一年,我是非常推薦的,我甚至覺得這是我職業生涯里做得最對的事情。在那一年里,我讀了很多書,在很多感興趣的領域有所涉獵……我學到了核工程知識;AI時代開始了,我學習了關于AI的理論;我學習了生物制造的相關知識。……我到很多地方旅行,從某種程度上講,我感受到了這個世界其他部分真實的樣子,我見了從事各行各業的人,并與之交談……我有充足的時間,所以如果我遇到了有意思的看起來不錯又需要幫助的人,我會幫助他們……我沒有安排自己的時間表,所以我可以立刻飛到其他國家參加會議。我開始做這些隨機的事情。幾乎所有的事情都沒有開花結果,但是對之后事情產生深遠影響的種子已經種下了。
這個種子,最終發芽成長為OpenAI。
人生所需不過一份注意
GPT的T,指的是Transformer,其最核心、最精妙之處就是“注意力機制”。它會對一段文本中每個詞語與其他所有詞語之間的關系進行評估,計算出它們之間的關聯強弱程度,從而捕捉信息之間的相互關系,以實現高效而精準的信息處理。所以,學習的本質也是注意力分配的藝術。
我們所處的世界彼此相連,而非孤立隨機。在物理層面,世界由物質和能量組成,它們之間不斷地相互作用,形成復雜而穩定的秩序。在生命層面,物種之間通過復雜的生態網絡連接起來,生態鏈中每個環節互依互存,任何個體的變化都可能引發連鎖反應。在人文社會層面,每個人看似獨立,但無時無刻不在通過溝通、情感聯結與社會網絡交織在一起。文明的存續與演化,來源于人與人之間頻繁而有序的互動。英國詩人約翰·多恩說:“沒有人是一座孤島,可以自全……任何人的死亡都是我的損失,因為我是人類的一員,因此不要問喪鐘為誰而鳴,它就為你而鳴。”美國行為科學家阿莫斯·特沃斯基也說:“人不復雜,復雜的是人與人之間的關系。”
應當如何分配注意力來認識我們所在的這個世界呢?
第一,注意高質量的數據和人。在機器學習領域,有一個廣為人知的第一性原理:“垃圾輸入,垃圾輸出。”再多的參數,再強大的算力,如果輸入的數據質量低下,最終訓練出來的大模型也必然表現糟糕。所以,OpenAI在訓練初期便嚴格把控數據質量,選用了維基百科、經典書籍、科研論文、優秀代碼和高質量互聯網內容作為注意力處理的信息。這些精心挑選的材料構成了GPT的認知基座。
截至2024年6月,我國短視頻用戶數量達到10.5億,占整體網民的95.5%,人均每天觀看時長約151分鐘。而閱讀用戶只有短視頻用戶的一半,人均每天閱讀時長只有23分鐘。AI在學習,人類卻在沉迷。
真正與注意力門當戶對的是高質量的數據集和人。在進入某個領域前,首先精心構建你的數據集:誰是這個領域的權威,哪些書、線上課程是這個領域的經典,哪些工具能讓這個領域的抽象知識變得具象清晰?之后,閱讀入門材料快速建立對這個領域的基本認知;接下來,對經典或權威的書籍或教材進行深度學習,建立完善的知識框架;最后,通過專業研究文獻并與專家或AI互動交流,拓寬和深化自己的認知邊界。
第二,注意實例而非規則。符號主義給AI以規則:“如果一個動物有尖尖的耳朵,胡須明顯,并且眼睛在夜間能反光,那么它是貓。”這時,狐貍、猞猁、浣熊和狼也會被符號主義AI識別成貓。而聯結主義只給AI貓的圖片,各種各樣貓的圖片,讓注意力在海量的數據中主動探尋其中蘊含的模式和規律。
前者是授人以魚——人類先提取特征,然后把特征喂給AI,即人類向AI輸入人類學習的結果,AI只需要記憶,正所謂前面有多少智能,背后就有多少人工。后者是授人以漁——沒有工程師總結的規則,只有精心挑選的實例,讓神經網絡自己學習,讓它自己去充分挖掘全部可能,因為“足夠大的神經網絡當然無所不能”(計算軟件Mathematica的創造者史蒂芬·沃爾弗拉姆語)。學會放手,效果反而驚人。
孩子的大腦,也如一個剛剛初始化的大模型,有極大的參數空間等待優化。與其告訴他人生道理,不如給他精選的樣例,讓他通過自己的探索得到答案。這就是認知心理學家和教育心理學家杰羅姆·布魯納在其經典著作《教育過程》中提出的范例教學,又稱歸納式教學。
在數學教學中,教師給出一系列完整解題步驟的例題,學生通過分析示例主動理解數學概念和方法,而不是教師直接講解抽象的數學公式;在語文教學中,教師讓學生通過反復接觸大量語言樣例歸納語法規則,而非直接灌輸語法規則。這種方法不僅能加深理解,還更易于將其遷移到新的問題或情境中。所以,孩子在成長過程中碰到的每一個難題,都不妨看作一次有意義的訓練樣例,父母無須立刻給出結論或答案,要讓孩子自己去觀察、體驗、比較、反思,從中找到自己的道。放棄說教,“給予注意,學會陪伴”,這才是養育孩子的黃金法則。
成人也是如此。初等教育和高等教育賦予我們的道理如同預訓練階段的基礎知識,它們在大腦中構建了認知的底層模型,卻不足以直接指導我們應對真實復雜的生活場景。生活真正考驗我們的是具體情境中的決策能力,而這種能力恰恰來自后續不斷的微調和強化學習。例如,面對親密關系中的沖突,書上說“要理解對方,包容不同觀點”,但這樣的抽象道理并不能讓我們解決沖突;只有去傾聽、去表達、去調節情緒,然后根據對方的反饋微調和優化我們“人際交往專家模塊”的參數。所謂“紙上得來終覺淺,絕知此事要躬行”,這樣,我們才不會陷入“懂得了很多道理,依舊過不好這一生”的局部最優陷阱。
?圖源:Denis Freitas
第三,注意也是遺忘。學習的本質,是對知識體系的優化。大模型像一個撿破爛的拾荒者,無差別地記憶所有接觸的信息。而人超越大模型的,是其所獨有的“選擇性遺忘”:有意識地強化對重要知識和場景的記憶,同時主動遺忘那些低效甚至有害的信息。所以,積極的遺忘并非失敗,而是一種認知優化的策略,它可以讓寶貴的注意力聚焦于那些真正有價值的信息和故事。《洛麗塔》的作者弗拉基米爾·納博科夫說:“你所領悟的人生真理,皆是你曾付出代價的往事。”
在學習過程中,選擇性遺忘就是“先做加法,再做減法”的思維模式。為策劃一個項目,我們會收集大量的信息,做大量的調研,努力將各種可能性都納入考慮范圍。這是必要的第一步,即先做加法。越接近決策階段,就越需要精準地做減法,選擇性遺忘。比如,關于一款新產品,我們最初想法無數:既要滿足市場需求,又要成本可控;既要功能強大,又要操作簡單;既想滿足年輕人的需求,又不愿放棄中年人市場。但是,真正的產品設計者,要敢于主動“遺忘”那些充滿吸引力但干擾產品核心定位的冗余信息,從而將注意力分配給真正的核心。著名設計師迪特·拉姆斯曾說:“好的設計不是堆砌更多的功能,而是敢于刪去多余的東西。”遺忘,也是注意力分配的藝術。
生活中,我們有時會情緒低落,這可能是因為過去一些不愉快的經歷:或許是一次失敗的考試,一次刻骨銘心的分手,甚至是朋友無意中的傷害。這些不愉快持續侵占和消耗著我們的注意力,不斷地喚起痛苦的記憶,讓我們陷入“身在當下,心在過去”的困境而無法自拔。選擇性遺忘不是強迫忘記這些不愉快,或者逃避甚至否認它們曾經發生。
選擇性遺忘是承認,是接納——承認它們確實已經發生,無法更改,接納它們曾給自己帶來的傷害。但是需要明白的是,它們并不必然定義我們現在以及未來的人生。心理學家卡爾·榮格說:“我們無法改變過去的事實,但我們可以改變看待這些事實的態度。”只有當我們真正接納了這些痛苦的經歷,允許自己放下情緒上的執著與執念,過去的負面經歷才會與我們握手言和,逐漸淡去;唯有這樣,注意力才會回歸當下,回歸我們能掌控的事情上。于是,我們重獲內心的平靜與自由。
遺忘,既是告別,也是起航。
小結:非共識的AI時代
AI有兩個重要維度:大眾關注度和自身價值。二者之間的關系如圖6-5所示。
圖中黑色線條展現的是隨著知識深度的增加或問題難度的提高,大眾對AI技術的關注度直線下降,即AI在淺層知識領域中的應用更容易成為流行熱點,如ChatGPT撰寫一篇文章,Midjourney(智能繪圖軟件)創作一張藝術圖片,Suno(AI音樂生成器)創作一首歌曲。當AI進入中層知識領域,如AlphaFold預測蛋白質結構,大眾關注度明顯下降,即使 AlphaFold為治療疾病開辟了新紀元。當AI進入高度抽象或極端專業領域,如高階數學定理證明或量子計算優化,此時大眾的關注度降至冰點。因此,黑色線條展現了一條社會認知鐵律:大眾興趣集中在容易理解和感知的淺層知識領域。
圖中藍色線條代表的是AI的內在價值。它與知識的關系并非線性,而是呈現先升后降的趨勢:在淺層知識領域,AI能做的事,人也能做,因此AI的價值有限;在中層知識領域,AI 展現出強大的技術優勢,AI有而人難有,AI的價值因此達到頂峰;在深度知識領域,知識的難度或問題的抽象度超過一定閾值,AI無法勝任,于是其價值迅速衰減。
如果把人類的知識按照“已知”和“未知”分為四類并放入圖6-5,我們就可以洞悉AI與人類的關系。
圖的最左側是“已知的已知”(known known),是指人類已經廣泛掌握并系統整理和公開的知識領域,如物理定律、數學公式、已發表的科學論文、常規醫學指南等。這個區域的知識完全公開透明,AI能夠非常輕松地處理此類知識,因為它擅長的就是模式識別和大規模計算。例如,AlphaGo戰勝人類,靠的就是已知的技巧和公開的棋譜。
緊接這個區域的是“已知的未知”(known unknown),是指人類已經清楚地定義了存在的問題,并取得了成功范例,但尚未獲得完全解答的領域。它有以下三個特點:
這個問題是一個根節點問題(root node problem),解決了這個問題,將引發這個領域的革命性突破。
有海量的與這個問題高度相關的高質量數據。
人類方法非常有限,力不從心。AI依靠強大的算力和先進的算法,借助海量的數據和實驗模擬能快速逼近答案,展現了AI 最強大、最有價值的一面。
蛋白質折疊預測就是這樣一個問題。首先,它是生命科學領域的一個根節點問題,因為蛋白質結構決定其功能,直接影響到所有生命活動和疾病機理。因此,準確預測蛋白質三維結構,將直接推動新藥研發和疾病治療。其次,這個領域擁有大量與問題高度相關的高質量數據。過去數十年來,全球科學家通過X射線晶體衍射、核磁共振和冷凍電鏡等方法積累了大量經過實驗驗證的高質量蛋白質結構數據,如蛋白質數據庫。最后,人類方法在蛋白質折疊預測的問題上,效果非常有限——實驗方法昂貴、耗時且成功率低。AlphaFold正是切入了這個科學痛點,依靠深度學習的注意力機制,深入分析數據中蛋白質氨基酸序列與空間結構之間的復雜關聯,在短短一年時間里,預測了超過2億個蛋白質結構,幾乎覆蓋了所有已知蛋白質序列,相當于人類數十年來實驗測定蛋白質結構數量總和的數千倍。
“已知的已知”和“已知的未知”都已經或者即將被 AI占據,但是“已知的未知”才是AI的“最優區間”,因為人類在“已知的已知”領域做得也不錯,AI的作用僅是錦上添花,如自動駕駛。所以,“已知的未知”領域是創業和投資的“黃金點”,類似的還有藥物設計與發現、材料科學的高效設計與發現、氣候變化和環境問題的精細建模、腦連接組與神經元活動規律解碼等。但它也是這個領域的學生和從業者的噩夢,因為 AI最先取代的,就是這個領域的所有行業。AI 過處,寸草不生。
第三類是一個獨特且微妙的知識類別:“較少被了解的已知/未知的已知”(less known / unknown known)。較少被了解的已知是指知識存在,但尚未被廣泛傳播,公眾認知度極低,如小眾學科的專有技術、特定文化背景下的獨特經驗以及個人原創但并未廣泛傳播的領悟或思想;未知的已知是指知識掌握在特定個體或組織手中,但從未公開。例如,企業擁有未公開的市場數據與內部研究成果,個人的職業直覺、創新創意、情感體驗等難以量化的主觀經驗等。
這個領域的知識有兩個特點:從人類社會的角度看,就是“稀缺”,通常需要高價或者非正常手段才能獲取;從大模型的角度看,就是“缺失”,即AI的知識體系在這一領域是空白,因此無法直接模仿或“思考”。所以,這個領域的知識,是人類在認知維度上擁有的核心優勢。
圖的最右側是“未知的未知”(unknown unknown),是指人類目前甚至無法明確意識到的問題和領域。由于沒有明確的方向,沒有定義清楚的問題,更沒有數據,AI無能為力,只能有待人類自身產生顛覆性的認知突破。
顯然,“已知的已知”已經被AI統治——在這個領域,人已經不可能和AI一較高下。所幸的是,人類在這個領域干得還不錯而且有極高的社會關注度,因此在“以人為中心”的倫理和政策的保護下,AI大概率會成為助手,而非替代,由此避免人類的大規模失業所導致的社會問題。而“已知的未知”正在或即將被AI占領,因為人類笨拙的表現和較低的社會關注,人類終將徹底讓渡整個領域。
因此,在AI時代,人類與AI的角力聚焦在“未知的已知”這個知識領域。AI學習和推理需要大量的公開數據,而這個領域的知識本質上處于半封閉或完全封閉狀態,使得AI難以有效獲取并學習。因此,為保證人類的競爭優勢,一個直接且簡單的策略就是有意識地調整知識的管理和傳播策略:個人、企業與科研機構應更謹慎地處理知識傳播,戰略性地保留關鍵數據與技術,避免完全公開。
?圖源:Denis Freitasv
但是,這種有意識地制造和維護信息不對稱的策略,從根本上與人類自啟蒙時代以來所追求的知識普及化、標準化與共識化背道而馳。我們不禁要問:為了確保人類的獨特性和獨立性,是否值得放棄使文明不斷加速的、讓知識價值最大化的公開和共享?這種類似中世紀的、讓關鍵知識掌控在少數人手里的被動防守策略是否真的能有效限制AI?
其實,進攻才是最有效的防守。這里的進攻,就是創造。過去,人類的價值更多地體現在知識儲備和技能的運用上;但人類真正的獨特性,不在于簡單的模仿與記憶,更不在于對知識的壟斷或封閉,而在于每個人擁有的獨特認知與生成式發明的能力。正是這種獨特性,使人類在中世紀打破神學統治下僵化的認知模式,實現了思想、科學、藝術的全面復興,重新解放了個體的理性與創造力。
文藝復興,首先是達·芬奇、米開朗琪羅等藝術家通過作品凸顯出個體的人體美與人性光輝,使人類對自身的理解變得更加豐富和深刻,由此帶來了對人文主義的推崇,擺脫了過去神學統治的人性壓抑。其次,以哥白尼、伽利略、開普勒為代表的科學家打破了教會權威對知識的壟斷,喚醒了大眾對科學精神的追求和理性思考。最后,印刷術的普及使古希臘、古羅馬的經典著作得以廣泛流傳,形成了思想碰撞的良性循環。
因此,文藝復興并非單純的藝術與文學復興,而是一次全面而深刻的思想革命。它釋放了人類長久以來被壓抑的創造力,使人類文明從神學的束縛中解脫出來,走上科學探索、個性解放與人文精神的道路。這種深刻的思想變革,正是人類文明實現巨大躍遷的根本原因。
在AI時代之前,人類習慣了自工業革命以來標準化的教育模式,并滿足于扮演知識的存儲者和技能的使用者角色。但在AI時代,人類必須完成從知識的“存儲者”向知識的“創造者”的范式轉變。因為AI可以復制、模仿甚至優化已有的知識與方法,但真正開辟新范式、新視野、新概念,卻始終依賴人類獨特的感性體驗、直覺判斷與深刻的同理心。
例如,在藝術創作中AI能夠模仿風格,卻無法真正感受創作者的個人情感經歷和歷史背景,因此人類原創的藝術作品永遠擁有獨特的價值;在科學探索中,盡管AI能高效計算模擬,但真正“從0到1”的突破性靈感往往來自人類直覺的非理性躍遷,這種直覺恰恰是AI難以模擬的;在決策制定中,AI雖然能給出基于大數據的參考建議,但對于諸如政策決策中的社會公平與道德權衡等復雜、模糊的倫理或價值判斷仍要依賴于人類自身的直覺、經驗與倫理共鳴。
因此,AI時代并非人類的衰落時代,而是人類認知方式和知識戰略的深刻轉型時代。人類不再單純追求知識的標準化、共識化,而是通過創造力拓展“未知的已知”這個“非共識”知識領域的廣度與深度,并勇于探索“未知的未知”,重新構建人類自身的獨特優勢與核心價值。
因此,“非共識”成為AI時代的核心關鍵詞。它重新定義了人類的價值,意味著教育、職場甚至整個社會價值觀的轉型。例如,我們必須重新審視教育的目標,將教育重心從記憶和標準化測驗轉向培養“非共識”的創新思維、批判性思維與跨學科融合能力。只有人類才具備這種真正的創造性、超越認知邊界的想象力。同時,社會層面要加強對“非共識”人才的認可和激勵,鼓勵差異化、個性化發展。正如哲學家尼采所言:“每一個不曾起舞的日子,都是對生命的辜負。”在人類與AI共舞的時代,人類只有以積極創造的姿態起舞,才能超越固有認知邊界,彰顯生命與文明的意義。
因此,AI進入日常生活與工作,既是挑戰,更是前所未有的機遇。只有真正理解并擁抱這一趨勢,人類才能重新激發并珍視自身獨特的認知優勢,不僅能在AI的沖擊中安然無恙,更能以此為契機,實現認知與社會價值的飛躍。所以,AI并不會取代人類,而是驅使人類更深刻地重新定義自身的認知優勢——未來,誰能夠更有效地創造和掌握“非共識”知識體系,誰就能在AI時代掌控主動權。
或許,這才是AI真正饋贈給人類的禮物。
?《通用人工智能:認知、教育與生存方式的重構》作者:劉嘉 湛廬文化/浙江教育出版社 點擊上圖或閱讀原文購買。
閱讀最新前沿科技趨勢報告,請訪問歐米伽研究所的“未來知識庫”
https://wx.zsxq.com/group/454854145828
未來知識庫是“ 歐米伽 未來研究所”建立的在線知識庫平臺,收藏的資料范圍包括人工智能、腦科學、互聯網、超級智能,數智大腦、能源、軍事、經濟、人類風險等等領域的前沿進展與未來趨勢。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。 歡迎掃描二維碼或訪問https://wx.zsxq.com/group/454854145828進入。
截止到3月31日 ”未來知識庫”精選的百部前沿科技趨勢報告
(加入未來知識庫,全部資料免費閱讀和下載)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.