約10000字
速讀需要15分鐘
有責說明:寫出精品文章是筆者創作的目標,準確詳實是最基本的要求,因此我對撰寫發布的內容的準確性負責,有錯誤和不當之處請大家指出!如果您覺得文章寫的還不錯,值得轉載轉發,請注明出處。謝謝支持!
1 引言
得益于大模型技術的突破,近期人工智能技術在圖文生成、信息檢索、語音助手、輔助編程、科研試驗等方面的應用呈爆發式增長,給人們帶來全新的智能體驗,世界范圍內各大廠商競相在大模型研發上投入資源,提升生產效能和產品的智能化水平。對于大多數非人工智能專業的同志來講,人工智能技術是神秘復雜的,從弄懂基本的技術原理到實現一個人工智能算法,涉及數學、邏輯學、計算機科學、軟件編程、硬件集成等領域的知識和技能。但人工智能技術看似復雜,其基本技術原理卻是簡單直接的,而且在筆者看來,人工智能技術發展到今天這樣的形態也存在其必然性,當前形態也不是人工智能技術的終點,可以說我們離終點的距離還是未知的。
今天這篇文章,我們就以時間線為軸,一起研閱人工智能技術的發展歷程,總結人工智能三大技術路線的基本原理,從而對如今的人工智能技術有一個基礎性的認識,并對人工智能技術的未來發展方向做一個展望。
2 先上干貨
首先,人工智能是計算機科學的一個分支,是當前計算機科學發展的重要方向,是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用的一門科學,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理等。相比于過往的計算機技術,人工智能技術追求的是機器計算處理的自主性,在無需人事先編程和實時指令的條件下應對任務環境中的各種情況和問題,“讓人省心”地獨立執行任務。人工智能技術正式作為一個學科領域開始研究始于1956年的達特茅斯會議,會議確定了Artificial Intelligence (AI)來代表用機器來模仿人類學習以及其他方面智能的研究。為了實現這一研究目標,科學家們大致開辟出了三條技術路線——符號主義、聯接主義和行為主義。
其中符號主義是最先投入應用的,符號主義啟發自人類的思維過程,即認知和思維的基本單元是符號,認知過程就是在符號表示上的一種運算,因此只要人們將任務環境的要素都抽象成符號,并且告知機器這些符號的相互關系和作用機制,那機器就可以通過符號推演的方式不斷更新任務系統的狀態,或者從環境中推斷出一定的結論。基于符號主義智能算法的典型代表是啟發式算法、專家系統和知識工程。符號主義的優勢是具有可解釋性,因為符號主義智能系統中的所有知識和規則都是人定的,推理過程很清晰,擅長實現某一個專業領域的智能處理,尤其適合易于符號化、邏輯關系較強的任務環境(例如棋牌、游戲、醫學初診、數學推理等),劣勢在于感知環境的能力較弱,依賴人工輸入條件、知識和規律,所以對于圖像、語音識別這樣的偏模擬信號難以符號化的場景符號主義的表現就不靈了。例如2010年前的語音助手大部分都是符號主義的產品,難以應對個性需求,表現地很“智障”。
聯接主義的起源也比較早,相比于符號主義啟發自人類的思維過程,聯接主義則是模仿人類思維的生物基礎——大腦。通過解剖,科學家們發現了生物神經網絡的基本組成、結構和信號傳遞機制——眾多的神經元、廣泛的連接和脈沖。受生物神經網絡啟發,科學家們先后提出了MP模型、多層網絡、感知機等人工神經網絡模型,可以解決簡單的線性和非線性分類問題,再后來提出的反向傳播算法解決了多層神經網絡如何訓練(學習)的問題,遞歸神經網絡(RNN)、卷積神經網絡(CNN)、長短期記憶模型(LSTM)等網絡結構相繼被提出,此時人工神經網絡已經能夠在簡單的數字識別、語音識別、信號處理、規律預測等問題上應用,進入21世紀計算機和網絡技術的飛速發展為人工神經網絡帶來了更強的算力和海量的樣本數據,其中ImageNet數據集和GPU顯卡在神經網絡訓練中的運用大大促進了人工神經網絡的發展,應用的復雜度和廣度進一步提升,再后來生成對抗網絡(GAN)、殘差網絡(ResNet)、深度強化學習等更加復雜先進的概念也被提出,2017年基于Transformer架構的語言模型被Google Brain的科學家提出制造了人工神經網絡關鍵的轉折——大模型,2018年OpenAI和Google基于Transformer架構先后發布了GPT和BERT,徹底引爆了大模型的研發,方興未艾。
行為主義作為一條人工智能技術路線發展要晚于符號主義和聯接主義,起源于20世紀40年代的控制論,到20世紀末才以人工智能新學派的面孔出現。相比于前兩者從思維過程和生物原理上模仿,行為主義的出發點則更直接——行為上模仿,認為智能的行為是智能的外部表現,可以進行觀察和模擬(機器觀察外部環境并做出正確反應),追求機器行為與人類行為的相似性,而非內部工作原理的一致性。行為主義的代表作首推布魯克斯的六足行走機器人,是一個基于感知-動作模式模擬昆蟲行為的控制系統。強化學習是行為主義最具代表性的算法,強化學習的方法也成功運用在人工神經網絡的訓練中。現在比較有名的研究成果有波士頓動力機器人、國內宇樹科技機器人等,這些機器人的智能并非來源于自上而下的大腦控制中樞,而是來源于自下而上的肢體與環境的互動。
3 展開講講
這一部分,筆者分三條技術路線,以時間線為軸通過關鍵事件的敘述概述出其技術發展路徑(歷史事件在很多文章中總結都很全面了,在此我引用大家的總結并重新按技術路線組織,以更好地了解這種技術路線的原理和關鍵所在)。從1956年達特茅斯會議確定人工智能這一研究方向,到今天如火如荼的大模型,從應用的角度來看,人工智能技術在這近70年的時間里取得不小的進步,從概念走向了實際應用,從不好用到好用,更重要的是在應用需求的推動下,人工智能的發展勢頭有增無減,人類已經在打開“潘多拉魔盒”的過程中嘗到了甜頭,就一定會繼續下去。
3.1符號主義的發展歷程
符號主義人工智能算法的技術路徑大概是啟發式算法、專家系統、知識工程理論與技術,符號主義的發展特別依賴于計算機的存儲和計算能力,計算機的能力越強,基于符號主義的系統推理的速度就越快,存儲的知識和規則也越多。符號主義曾長期一枝獨秀(支撐了前兩次浪潮),為人工智能的發展作出重要貢獻,尤其是專家系統的成功開發與應用,對人工智能走向工程應用具有特別重要的意義(20世紀60年代后誕生了很多專家系統,實現了很多商業化應用)。到了20世紀80年代,符號主義系統基于規則和已有知識的“檢索+推理”模式面對復雜的現實世界顯得力不從心,同時個人計算機及互聯網的發展運用也在一定程度上沖擊了專家系統。到2012年后,由于深度神經網絡的興起,符號主義路線上的專家系統和知識工程等項目就顯得沒那么耀眼了,由“前臺走向了幕后”,現在還在默默發展中。
1955年赫伯特·西蒙(Herbert A. Simon)和艾倫·紐維爾(Allen Newell)研發出人類歷史上第一個人工智能程序——“邏輯理論家LT(Logic Theorist)”,并在達特茅斯會議上進行了演示。它將每個問題都表示成一個樹形模型,然后選擇最可能得到正確結論的那一枝來求解問題,短短幾個小時內,邏輯理論家程序就證明了《數學原理》書中52個定理中的38個。
1957年,赫伯特·西蒙等人在“邏輯理論家”的基礎上繼續改進,推出了能夠完成52個定理證明的通用問題解決器(General Problem Solver,GPS),人們似乎看到了通過符號系統實現通用人工智能的曙光,人工智能進入發展的第一個浪潮。
1958年,為了更好地實現符號智能系統,美國計算機科學家約翰·麥卡錫正式發布了人工智能編程語言——LISP(LIST PROCESSING,意思是列表處理)。后來的很多知名AI程序,都是基于LISP開發的。
約翰·麥卡錫
1959年,IBM科學家亞瑟·塞繆爾(Arthur Samuel)在自家首臺商用計算機IBM701上,成功編寫了一套西洋跳棋程序,并在1962年擊敗了當時全美最強的西洋棋選手羅伯特·尼雷,引起了轟動。它的核心技術是α-β剪枝搜索和自我對弈來學習評價函數,可以通過對大量棋局的分析,逐漸辨識出“好棋”和“壞棋”,從而提高自己的下棋水平。亞瑟·塞繆爾首次提出了“機器學習(Machine Learning)”的概念,被后人譽為“機器學習之父”。
1966年,美國麻省理工學院的約瑟夫·魏澤鮑姆(Joseph Weizenbaum),發布了世界上第一個聊天機器人——ELIZA,它由200行代碼和一個對話庫組成,可以針對提問中的關鍵詞,進行答復。ELIZA其實沒有任何智能可言,它基于規則運作,既不理解對方的內容,也不知道自己在說什么。ELIZA可以說是Siri、小愛同學等聊天機器人的鼻祖,因為最初的Siri等也是基于規則實現的。
約瑟夫·魏澤鮑姆演示ELIZA
1968年,美國科學家愛德華·費根鮑姆(Edward Feigenbaum)提出了第一個專家系統——DENDRAL,可以幫助化學家判斷特定物質的分子結構,并對“知識庫”給出了初步的定義。這標志著專家系統的誕生,催生了人工智能的第二次浪潮。和DENDRAL差不多時間出現的專家系統,還有威廉·馬丁(William Martin)開發的Macsyma,以及安東尼·赫恩(Anthony C. Hearn)開發的Reduce,這兩套都是數學領域的專家系統(用于求解數學問題),都采用了約翰·麥卡錫的LISP語言進行開發。
1972年,美國醫生兼科學家愛德華·H·肖特利夫(Edward H. Shortliffe)創建了可以輔助醫學診斷的專家系統——MYCIN。MYCIN也是基于LISP語言編寫,擁有500多條規則,能夠識別51種病菌,正確地處理23種抗菌素。
1977年,愛德華·費根鮑姆在第五屆國際人工智能聯合會議上,提出了“知識工程(Knowledge Engineering)”的概念,進一步推動了專家系統的普及。進入1980年代,隨著技術的演進,計算機的計算和存儲能力增加,專家系統開始在各個行業爆發。
1980年,卡耐基梅隆大學研發的專家系統XCON正式商用,為當時的計算機巨頭公司DEC每年省下數千萬美金。
1983年,通用電氣公司搞出了柴油電力機車維修專家系統(DELTA)。這個系統封裝了眾多資深現場服務工程師的知識和經驗,能夠指導員工進行故障檢修和維護。當時,美國運通公司也搞了一個信用卡認證輔助決策專家系統,據說每年可節省2700萬美金。總而言之,那時候的專家系統,是大公司趨之若鶩的神器。它能夠帶來實實在在的經濟效益,所以,行業用戶愿意為之投資,這是第二次AI浪潮的根本原因。
1984年,美國微電子與計算機技術公司啟動了“Cyc”項目,是一個“超級百科全書”項目,它試圖將人類擁有的所有一般性知識都輸入計算機,建立一個巨型數據庫。截止2017年,它已經積累了超過150萬個概念數據和超過2000萬條常識規則,曾經在各個領域產生超過100個實際應用,它也被認為是當今最強人工智能IBM Waston的前身。
1997年5月,IBM的“深藍”(Deep Blue)以2勝1負3平的成績,戰勝國際象棋冠軍卡斯帕羅夫,震驚了世界。“深藍”其實是一臺超級計算機,也是符號主義邏輯推理的一種實現。它可以在一秒內計算2億步棋局的可能性,從中選擇最優解,而且它還有許多國際象棋的專家幫助編寫的程序,輸入了大量的棋局和策略。
“深藍”戰勝國際象棋冠軍卡斯帕羅夫
2011年IBM 的沃森(Watson)問答系統在在《危險邊緣》中戰勝人類獲得冠軍,沃森系統將高級自然語言處理、信息檢索、知識表示、自動推理和機器學習技術應用于開放問題解答領域,有100多種不同的技術用于分析自然語言,識別來源,查找和生成假設,查找和評分證據以及合并和排列假設。同年,蘋果推出了自然語言問答工具Siri。
3.2聯接主義發展歷程
聯接主義的發展歷程是一個由簡入繁的過程,從單個神經元模型(MP模型),到單層神經元(感知機),再到多層神經元網絡,反向傳播算法解決了多層網絡的訓練問題,再到各種各樣的神經網絡結構和學習策略,到最近的生成式對抗網絡、自注意力機制、Transformer架構等在提高神經網絡規模的基礎上提升了計算的并行度,釋放了大規模神經元模型的能力,引發了人工智能發展的新浪潮。人工智能的前兩次浪潮主要由符號主義主導,但是到了20世紀80年代,越來越多的科學家意識到專家系統存在不足,想要實現真正的智能,就必須讓系統自主學習,自此機器學習和神經網絡(聯結主義)加速崛起,逐漸取代專家系統(符號主義),成為人工智能的主要研究方向。人工智能原本由知識驅動的方式,逐漸轉向由數據驅動。在這個過程中,除了學習算法和網絡結構,數據和算力的建設發展也起到了基礎性作用(基于現有的學習算法,大規模網絡需要搭配大規模樣本數據和大算力)。
1943年,美國神經生理學家沃倫·麥卡洛克(Warren McCulloch)和數學家沃爾特·皮茨(Walter Pitts),基于人類大腦的神經網絡,創建了一個形式神經元的計算機模型,并將其取名為MP模型。
MP模型
1951年,馬文·明斯基(Marvin Lee Minsky)和他的同學鄧恩·埃德蒙(Dean Edmonds),建造了第一臺神經網絡機SNARC。
1957年,美國康奈爾大學的心理學家和計算機科學家弗蘭克·羅森布萊特(Frank Rosenblatt),在一臺IBM-704計算機上,模擬實現了一種他發明的叫“感知機 (Perceptron) ”的神經網絡模型。這種感知機神經網絡的學習算法是依據輸出的正確與否來直接調整權值(即參數)和偏置,而這種方法遷移到多層網絡上并不好用。
弗蘭克·羅森布萊特和他發明的感知機機器
1969年,馬文·明斯基(Marvin Lee Minsky)和西蒙·派珀特(Seymour Papert)寫了一本書《感知機: 計算幾何學導論》的書,對羅森布萊特的感知器提出了質疑。馬文·明斯基認為:“神經網絡具有很大的局限性(感知機無法解決線性不可分問題,例如異或問題),沒有實際研究價值。”自此,聯接主義被打入“冷宮”,相關研究舉步維艱。直到人們在20世紀80年代認識到符號主義的局限性,又將精力轉向了機器學習和人工神經網絡。
馬文·明斯基
1982年,約翰·霍普菲爾德(John Hopfield)在自己的論文中重點介紹了Hopfield網絡模型(模型原型早期由其他科學家提出),這是一種具有記憶和優化功能的循環(遞歸)神經網絡(RNN,Recurrent Neural Network)。
1986年,戴維·魯梅爾哈特(David Rumelhart)、杰弗里·辛頓(Geoffrey Hinton)和羅納德·威廉姆斯(Ronald Williams)等人共同發表了一篇名為《Learning Representations by Back-Propagation Errors(通過反向傳播誤差算法學習表征)》的論文。在論文中,他們提出了一種適用于多層感知器(MLP,Multi-Layer Perceptron)訓練的算法,叫做反向傳播算法(Back-Propagation,簡稱BP算法),這種算法實現了利用輸出誤差的梯度逐層將誤差傳到中間的每一層,并計算權值的修正量。
杰弗里·辛頓和約翰·霍普菲爾德獲得2024年諾貝爾物理學獎
1988年,貝爾實驗室的Yann LeCun(國人常將其翻譯為楊立昆)等人,提出了卷積神經網絡(CNN,Convolutional Neural Network),這是一種專門用于處理圖像數據的神經網絡結構,每個卷積核代表著一種二維特征,卷積操作在圖像上“掃描”從而識別特征。
Yann LeCun
1990年,美國認知科學家、心理語言學家杰弗里·艾爾曼(Jeffrey Elman)提出了首個遞歸神經網絡——艾爾曼網絡模型。遞歸神經網絡能夠在訓練時維持數據本身的先后順序性質,非常適合于自然語言處理等帶有時序特征的領域應用。
1997年,德國計算機科學家瑟普·霍克賴特(Sepp Hochreiter)及其導師于爾根·施密德胡伯(Jürgen Schmidhuber)開發了屬于遞歸神經網絡的長短期記憶模型(LSTM,Long Short Term Memory)。
1998年,Yann LeCun等人提出了LeNet,一個用于手寫數字識別的7層卷積神經網絡,初步展示了神經網絡在圖像識別領域的潛力。
20世紀90年代,神經網絡在開始商用于文字圖像識別、語音識別、數據挖掘以及金融預測,帶來了一定的經濟效益。但當時受到計算資源、數據和網絡規模的限制,應用范圍和性能有限。進入21世紀,得益于計算機算力的進一步飛躍,以及互聯網、大數據的爆發式增長,人工神經網絡也趁勢而上,進入了一個新的發展階段。在筆者看來,開啟這一新階段的關鍵是兩個人——杰弗里·辛頓和李飛飛。
2006年,多倫多大學的杰弗里·辛頓在《Science》期刊上,發表了重要的論文《Reducing the Dimensionality of Data with Neural Networks(用神經網絡降低數據維數)》,提出深度置信網絡(Deep Belief Networks,DBNs)。深度學習(Deeping Learning)就此誕生,2006年也被后人稱為深度學習元年,杰弗里·辛頓也因此被稱為“深度學習之父”。
2006年,在斯坦福任教的華裔科學家李飛飛,意識到了業界在研究AI算法的過程中,需要一個強大的圖片數據樣本庫提供支撐。于是,2007年,她發起創建了ImageNet項目,號召民眾上傳圖像并標注圖像內容。2009年,大型圖像數據集——ImageNet,正式發布。這個數據庫包括了1400萬張圖片數據,超過2萬個類別,為全球AI研究提供了強大支持。從2010年開始,ImageNet每年舉行大規模視覺識別挑戰賽,邀請全球開發者和研究機構參加,進行人工智能圖像識別算法評比。
ImageNet數據集
2010年Sinno Jialin Pan和楊強發表文章《遷移學習的調查》,詳細介紹了遷移學習的分類問題。當以遷移學習的場景為標準時分為三類:歸納式遷移學習(Inductive Transfer Learning)、直推式遷移學習(Transductive Transfer Learning)、和直推式遷移學習(Unsupervised Transfer Learning)。深度遷移學習主要就是模型的遷移,一個最簡單最常用的方法就是微調(Fine-Tuning),就是利用別人已經訓練好的網絡,針對目標任務再進行調整。近年來大火的BERT、GPT、XLNET等都是首先在大量語料上進行預訓練,然后在目標任務上進行微調。
2012年,杰弗里·辛頓和他的學生伊利亞·蘇茨克沃(Ilya Sutskever)和亞歷克斯·克里切夫斯基(Alex Krizhevsky)參加ImageNet大賽,他們設計的深度神經網絡模型AlexNet在這次競賽中大獲全勝,以壓倒性優勢獲得第一名(將Top-5錯誤率降到了15.3%,比第二名低10.8%),引起了業界轟動。并且,他們還成功將英偉達顯卡用于模型訓練,GPU在深度神經網絡訓練上表現出遠超CPU的效能,這也引起了英偉達公司的注意(早在2009年我國的“天河一號”超級計算機就將英偉達的顯卡用于異構計算中,并連續多屆奪得了超算冠軍,引起了不小的轟動)。
杰弗里·辛頓和他的學生伊利亞·蘇茨克沃和亞歷克斯·克里切夫斯基
2014 年,蒙特利爾大學博士生伊恩·古德費洛(Ian Goodfellow)從博弈論中得到啟發,提出了生成對抗網絡(GANs,Generative Adversarial Networks)。生成對抗網絡用兩個神經網絡即生成器(Generator)和判別器(Discriminator)進行對抗。在兩個神經網絡的對抗和自我迭代中,GAN會逐漸演化出強大的能力。
2014年,谷歌公司收購了專注于深度學習和強化學習技術的人工智能公司——DeepMind公司。2016年3月,DeepMind開發的人工智能圍棋程序AlphaGo(阿爾法狗),對戰世界圍棋冠軍、職業九段選手李世石,并以4:1的總比分獲勝,震驚了全世界。AlphaGo是深度學習網絡跟蒙特卡羅搜索樹(MCTS,Monte Carlo Tree Search)結合的勝利,AlphaGo中神經網絡的采用了監督學習和強化學習,監督學習以人類專家棋譜為訓練數據,強化學習分為兩個階段,策略學習和價值函數學習。策略網絡被訓練出來后,并不直接使用其作為動作的預測,而是還有一個蒙特卡洛樹搜索的過程,AlphaGo將策略和價值網絡結合到了蒙特卡洛樹搜索算法中。
2017年12月,Google機器翻譯團隊在行業頂級會議NIPS上,發表了一篇里程碑式的論文《Attention is all you need(你只需要注意力機制)》。論文提出只使用“自注意力(Self Attention)”機制來訓練自然語言模型,并給網絡整體架構起了個霸氣的名字——Transformer(《變形金剛》的名字)。所謂“自注意力”機制,就是只關心輸入信息之間的關系,而不再關注輸入和對應輸出的關系,這點的重要意義在于無需對樣本進行人工標注,從而可以直接獲得大量可用的數據集,這是一個革命性的變化。Transformer的出現,徹底改變了深度學習的發展方向。它不僅對序列到序列任務、機器翻譯和其它自然語言處理任務產生了深遠的影響,也為后來AIGC的崛起打下了堅實的基礎。
2018年6月,OpenAI發布了第一版的GPT系列模型GPT-1。同時,他們還發表了論文《Improving Language Understanding by Generative Pre-training(通過生成式預訓練改進語言理解)》。GPT就是Generative Pretrained Transfommer的縮寫,即生成式預訓練變換器。緊接著,2018年10月,谷歌發布了有3億參數的BERT(Bidirectional Encoder Representation from Transformers)模型,意思是“基于Transformers的雙向編碼表示”模型。
2019年和2020年,OpenAI接連發布了GPT-2和GPT-3。2022年11月,OpenAI發布了基于GPT模型的人工智能對話應用服務——ChatGPT(也可以理解為GPT-3.5),徹底引爆了大模型的發展市場。繼ChatGPT后,OpenAI又發布了GPT-4、GPT-4V、GPT-4 Turbo、GPT-4o,形成了如今難以撼動的領導者地位。谷歌雖然也發布號稱最強AI大模型的Gemini。
除了文本生成,生成式AI也積極向多模態發展,能夠處理圖像、音頻、視頻等多種媒體形式。例如DALL-E、Stable Diffusion、Midjourney等圖像生成模型,Suno、Jukebox音樂生成模型,以及SoRa視頻生成模型。
3.3行為主義的發展歷程
行為主義原本是心理學的一個學派,主要強調可觀察行為的研究,而非內在心理過程。行為主義認為,所有的行為都可以通過環境刺激和對這些刺激的反應來解釋,其忽略了心理狀態、情感和思維過程的作用。在人工智能領域,這種觀點啟發學者通過觀察和模擬外部行為來開發智能系統,而不是嘗試復現人腦內部的復雜機制。由于筆者對行為主義這部分的研究不多,而且也沒有查閱到把這一部分說的很清楚的資料,所以行為主義的發展歷程寫的較為模糊,現在行為主義除了在機器人控制領域發展較好外,它更多地是融合到其他人工智能技術中,最典型的代表就是強化學習。
行為主義心理學的基本原則是所有的行為都可以視為對外部刺激的反應。這個概念最初由約翰·沃森在20世紀早期提出,并隨后由B.F.斯金納等人進一步發展。1938年前后,斯金納通過他的實驗,特別是著名的斯金納箱實驗,展示了如何通過獎勵和懲罰來條件化動物行為。
斯金納試驗
20 世紀 40-50 年代,控制論思想成為時代思潮的重要部分,維納和麥克洛克等人提出的控制論和自組織系統,以及錢學森等人提出的工程控制論和生物控制論,影響了許多領域,為行為主義人工智能的發展奠定了理論基礎,早期的研究工作重點是模擬人在控制過程中的智能行為和作用。
20世紀60-70 年代的進展,控制論系統的研究取得一定進展,播下了智能控制和智能機器人的種子,如對自尋優、自適應、自鎮定、自組織和自學習等控制論系統的研究,并進行“控制論動物”的研制,但尚未形成完整的理論體系。
1966年,查理·羅森(Charlie Rosen)領導的美國斯坦福研究所(SRI),研發成功了首臺人工智能機器人——Shakey。Shakey裝備了電子攝像機、三角測距儀、碰撞傳感器以及驅動電機,能簡單解決感知、運動規劃和控制問題。它是第一個通用移動機器人,也被稱為“第一個電子人”。
人工智能機器人——Shakey
20 世紀 80 年代形成了“感知-行為”模式理論,行為主義作為人工智能的一個重要學派開始確立。該理論強調通過系統與環境的互動,獲取信息進行決策,從而做出相應的行為,注重智能系統的整體性能和對外界環境的適應性。
1980年代和1990年代,隨著機器學習的興起,行為主義在人工智能中找到了新的表達形式——強化學習。強化學習算法,如Q學習和時間差分學習,通過獎勵和懲罰機制來訓練算法做出決策,直接反映了行為主義的原則。學習是一種無模型的強化學習算法,它讓智能體學會如何在給定的環境中采取行動以最大化某種形式的總回報。它通過學習一個叫做Q函數的東西,來表示在特定狀態下采取特定行動的預期效用。這個Q函數對于每一個狀態-動作對(State-Action Pair)都維護一個Q值,這個值代表在給定狀態下采取某個動作的長期回報的估計。
1989年,由麻省理工學院羅德尼·布魯克斯(Rodney Brooks)制造的六足機器人Genghis(成吉思汗),被看作新一代的“控制論動物”,它有12個伺服電機和22個傳感器,可以穿越多巖石的地形,是一個基于“感知-動作”模式模擬昆蟲行為的控制系統。
六足機器人Genghis
20 世紀 90 年代以后,人工智能各學派之間出現了相互融合的趨勢,行為主義也不例外。行為主義的思想和方法與符號主義、連接主義相結合,在智能機器人、智能控制、機器學習等領域得到了更廣泛的應用和發展,例如在一些智能機器人的控制系統中,既采用了行為主義的“感知-動作”模式,又結合了符號主義的知識表示和推理方法,以及連接主義的神經網絡學習能力,使機器人能夠更好地適應復雜多變的環境和完成各種任務。現代的波士頓動力機器人、國內的宇樹科技機器人等產品都是這些技術的產物。
波士頓動力機器人
宇樹科技機器人
4 總結一下
人工智能技術是人類對工具、機器的高階追求,并在數學、生物學、心理學、計算機科學等的推動下不斷發展進步,人工智能技術的出發點都是對人或生物智能的模仿,從技術原理上大致可以分為三條技術路線符號主義、行為主義和聯接主義,這三種技術路線各有特點:
符號主義研究抽象思維,聯接主義研究形象思維,而行為主義研究感知思維。
符號主義注重數學可解釋性;聯接主義偏向于仿人腦模型;行為主義偏向于應用和身體模擬。
符號主義靠人工賦予機器智能,聯接主義是靠機器自行習得智能,行為主義在與環境的作用和反饋中獲得智能。
符號主義的發展主導了人工智能的前兩次浪潮,但是符號主義在“缺乏常識”和可擴展性方面的弊端顯露無疑,目前人們也沒有暢想出何種方法或系統去解決這些問題,更重要的是符號主義目前的技術方法還要求人來完成現實世界抽象描述及規律知識的總結工作,也在一定程度上限制了符號主義的發展,迫使人們由知識驅動轉向數據驅動;行為主義的人工智能技術主要運用在自主運動的機器人上,極大提升了四足、人形機器人在復雜環境中的運動能力,但行為主義智能算法并不適合文字、邏輯等抽象空間的處理;聯接主義在基本機制上是仿腦的,科學家們在這條技術路線上不斷創新,在算力和數據增長的加持下,人工神經網絡不斷用規模換能力,取得了最廣泛的應用突破,人們似乎看到了一種通用人工智能的實現方式,但目前的人工神經網絡也存在諸多弊端,包括不可解釋性、高能耗等。
可以看出,我們目前發明出的各類人工智能算法還未從各方面達到人類的水平,各類算法總有這樣那樣的問題需要解決。在筆者看來,人工智能的三大技術路線都是啟發自人類對自己和生物的觀察,符號主義、行為主義、聯接主義分別從邏輯思維、感知反應和模型原理上模仿生物智能,在這個模仿的過程中科學家們提出了各種優化的方法,像搭積木一樣壘出一個可用的智能體,筆者堅信,未來不會是某一種技術路線就可以實現人們所期待的所有智能機器,而是各種技術的融合互補,行為主義技術主要負責實現機器人的運動控制,聯接主義實現機器人的“大腦”,符號主義則輔助聯接主義在需要可解釋邏輯和知識方面加以補充和施加必要的控制,如此才能造就一款更加智能、可解釋、自適應的的人工智能機器。
這一期的人工智能科普就到這里,人工智能技術原理大多很簡單,但是每項技術都弄懂,知其所以然也不是易事,筆者也需要加強學習,一點一點把每個算法的技術原理搞清除,才有利于未來的創新發展。
在此,推薦幾個在學習過程中看到的能寫出優質科普文章的公眾號:
鮮棗課堂的科普文章
架構師帶你玩轉AI
AI科技前沿
吃果凍不吐果凍皮(大模型技術實踐,基礎要求高)
【網頁】
https://blog.csdn.net/ftimes/article/details/105024813
https://www.cnblogs.com/xiaoyh/p/12104263.html
原文鏈接:https://blog.csdn.net/mieshizhishou/article/details/142124901
https://blog.csdn.net/m0_73366745/article/details/140508025
https://www.zhihu.com/question/36849284
https://blog.csdn.net/mieshizhishou/article/details/142124901
https://blog.csdn.net/modi000/article/details/135619245
https://blog.csdn.net/u011531010/article/details/52935348
鏈接:https://www.jianshu.com/p/83fe5b52d3cc
https://blog.csdn.net/weixin_44096133/article/details/143608193
https://zhuanlan.zhihu.com/p/53300998
入門必讀!寫給初學者的人工智能簡史!
原創 小棗君 鮮棗課堂
2024年07月17日 20:30 江蘇
大語言模型的前世今生:萬字長文完整梳理所有里程碑式大語言模型(LLMs)
原創 APlayBoy AI生成未來
2024年07月05日 07:02 上海
《深入淺出LLM基礎篇》(一):大模型概念與發展
原創 GoAI GoAI的學習小屋
2024年03月08日 12:00 北京
一文徹底搞懂大模型 - 基于人類反饋的強化學習(RLHF)
原創 AllenTang 架構師帶你玩轉AI
2024年10月07日 21:25 湖北
一文徹底搞懂Fine-tuning - 預訓練和微調(Pre-training vs Fine-tuning)
原創 AllenTang 架構師帶你玩轉AI
2024年08月01日 23:16 湖北
新一輪AI浪潮之技術溯源 | CCCF精選
信息與電子工程前沿FITEE
2024年11月16日 13:55 浙江
圖解Transformer架構設計
芋道源碼
2024年05月06日 09:30 上海
這是一篇很枯燥的技術文章,花了很久很多心思整理的解讀大模型Transformer架構
原創 匙亮旭 極客e家
2024年08月03日 13:10 遼寧
人工神經網絡——感知器算法
原創 Jim_Harmony Jim的創意工坊
2024年10月29日 22:09 陜西
人工智能入門(4): 三大學派之行為主義
原創 黃寶榮 語言科學漫談
2024年03月14日 12:07 上海
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.