99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

“AI教父”辛頓最新專訪:沒有什么人類的能力是AI不能復制的

0
分享至

圖靈人工智能2025年06月01日 22


版權聲明

版權屬于原作者,用于學術分享,如有侵權留言刪除

被譽為“AI教父”的杰弗里·辛頓 于 近日接受了調查記者蓋昂·埃斯皮納的遠程專訪。

他稱,AI正在以前所未有的速度演化:變得更聰明、更少犯錯,甚至具備了情感和意識。他警告,AI不僅可能具備喜怒哀樂等情緒,還已經學會了欺騙。辛頓大膽預測,AI完全失控的概率在10%到20%之間,人類未來可能被AI所掌控。

辛頓因在機器學習和神經網絡領域的開創性貢獻,于2024年榮獲諾貝爾物理學獎。他曾在谷歌擔任AI研究負責人長達十年,并于2023年選擇離開。這樣,他可以更坦率地表達對AI潛在風險的深切擔憂。

過去那些只存在于反烏托邦科幻小說中的問題——“AI會取代人類嗎?”、“它會覺醒嗎?”、“會反抗人類嗎?”——如今正逐漸成為現實世界的核心議題,全球社會正在被迫直面這些重大挑戰。

辛頓的言論再次發出警示:AI不僅僅是技術革命,更是深刻的倫理與社會變革。未來能否將AI引導向有益于全人類的方向,將決定我們的命運走向。

劃重點

  • AI推理能力激增,錯誤率大幅下降,正逐步超越人類。

  • AI掌握的信息量遠超任何個體,已在多個領域比人更聰明。

  • 醫療、教育等行業即將被AI重塑,革命性變革已在發生。

  • 人類能力沒有“不可復制”的部分,AI終將全面勝任創意、判斷與情感表達。

  • AI也能類比、學習、調整,甚至展現“情感”和“意識”式行為。

  • 風險并非AI無法控制,而在于“誰擁有控制權”和“誰受益”。

  • 未來不止是失業威脅,更是人類被少數掌控AI者“系統性剝奪”的風險。

以下為辛頓最新專訪精華內容:


AI不再輕易出錯,變得比人更聰明

問:自從你離開谷歌已經過去兩年,你當時是為了發出關于AI可能帶來風險的警告而離開。那么,AI自那時以來發展得如何?

辛頓:AI技術的發展速度超出了我的預期。以推理能力為例,現如今AI在這方面已經有了顯著的進步,且似乎沒有放緩的跡象。

問:當你說“AI更擅長推理”時,具體指的是什么?

辛頓:過去,只要問題稍微復雜一點,AI就容易出錯。但現在,AI在推理上的表現已經接近人類。雖然人類和AI都會犯錯,但AI犯錯的概率正在迅速下降。

比如這個經典的邏輯題:

“Sally有3個兄弟,每個兄弟都有2個姐妹。請問Sally有多少個姐妹?”

很多人在壓力下容易誤判,覺得應該是6個姐妹。但其實,正確答案是:一個。因為每個兄弟都有相同的兩個姐妹,其中一個是Sally本人,另一個則是Sally的姐妹。

現在的AI可以迅速推理出這個結果,而不是被問題的表面結構迷惑。對普通人來說,如果有時間思考,這題并不難;但在現場采訪或考試壓力下,很多人可能會答錯。

問:那么,AI現在已經比我們聰明了嗎?

辛頓:從許多方面來看,答案是肯定的。AI顯然知道的比任何人都要多。例如,像GPT-4、Gemini 2.5和Claude等系統,它們所掌握的信息比任何人類都要多幾千倍。

問:你對此怎么看?

辛頓:我認為這既令人驚嘆,又令人害怕。

問:那么,令人驚嘆的部分是什么?

辛頓:AI將在多個領域發揮舉足輕重的作用,尤其是在科學研究方面,它有潛力推動真正的智能系統誕生,這是人類歷史上一個令人振奮的里程碑。

在醫療、教育等關系民生的領域,AI的影響也將是革命性的。

以醫療為例,AI將成為每個人身邊的“私人醫生”。它可以接診數百萬名患者,甚至包括與你患有相同罕見疾病的人。它了解你的基因信息、過往病史和所有體檢數據,而且永遠不會忘記任何細節。

更重要的是,AI在處理復雜病例方面,已經在多個研究中顯示出超過人類醫生的診斷能力。如果將AI與醫生結合,效果將比單獨依賴醫生要好得多,并且這種趨勢將越來越明顯。

沒有什么人類的能力是AI不能復制的


問:比爾·蓋茨最近也說,未來十年,大多數工作將不再需要人類。他舉了你提到的醫生這個例子,并把教育工作者也列入其中。你認為我們正面臨著大規模失業的威脅嗎?

辛頓:AI確實帶來了前所未有的機遇,但它同樣伴隨著巨大的風險。

在一個運作良好的社會中,AI本應該幫助我們大幅提升生產力。比如,一個人借助AI助手可以完成過去十個人才能完成的工作,這本來是件值得慶祝的事情。

然而,問題出在“誰從中受益”。這些因技術進步釋放出的生產力紅利,并不一定會被公平地分配?,F實更可能是:大多數人被AI取代、失去工作。而少數原本就非常富有的人,借助AI變得更加富有。

問:當然,他們的壽命也會更長。例如,谷歌DeepMind CEO 戴密斯·哈薩比斯最近也表示,AI在10年內可能會治愈所有疾病。聽起來有些難以置信,你認為這是否現實?

辛頓:我認識哈薩比斯,他是個非常理智的人,對AI的發展有著清晰的判斷。但我覺得他的預期有些偏樂觀。如果他說的是“在未來25年內”能實現某些突破性的目標——那我認為是有可能的。說到底,我們之間其實沒有太大的分歧。他更傾向于認為這些技術會提前實現,而我只是覺得時間可能會稍稍推遲一些。

問:目前似乎AI正在逐步向精英階層滲透,取代創意工作者、律師、教育者、醫生、記者等職業,而從事體力勞動的工人,如電工和管道工,似乎暫時較為安全。你認為這是正確的嗎?

辛頓:是的,至少在短期內,他們會更安全,因為AI在手工靈活性方面目前還有很多局限。如果你需要在一座老房子里做管道工作,通常需要伸手進入一些狹小的空間,而人工智能目前做不到這些。雖然未來十年內AI在手工靈活性方面可能會有所突破,但我認為管道工的工作至少在未來10年內是安全的。

問:許多創意工作都被視為是獨特的、僅屬于人類的領域。最近我和聊天機器人Claude交流了一下,讓它寫一首模仿鮑勃·迪倫風格的民謠歌曲,結果歌詞非常爛。但它寫的失戀詩倒是不錯。你認為,AI最終會創造出像莫扎特、畢加索或莎士比亞等人那樣的藝術作品嗎?

辛頓:我不認為有什么理由相信AI無法做到這些事情。也許它還需要一些時間,但最終,AI會變得越來越擅長這些任務。打個比方,如果你讓我寫一首模仿鮑勃·迪倫風格的歌,也許寫得并不怎么樣——但你不會因此說我毫無創造力,只能說我做得不夠好而已。AI的創作過程也是如此。它會不斷改進,它的水平會不斷提升。

沒有理由認為AI無法完成我們人類能做到的事情。說到底,人類并沒有什么神秘的、不可復制的特質。我們當然喜歡人類,因為我們彼此相連,我們在情感上關心對方。但從能力角度來看,人類并沒有什么是機器永遠無法復制的。

人類是類比機器,AI也能以同樣方式獲得情感和意識

問:這讓你感到擔憂嗎?當你看到AI能夠將一張圖片轉化為宮崎駿風格的動漫畫時,是否會擔心未來的孩子們不再愿意動手畫畫?這是否會迫使我們重新思考,究竟什么才是“人類的本質”?

辛頓:確實,這讓我感到擔憂。過去十年里,我們對“思考”這個過程有了更深刻的認識。我們逐漸意識到,人類其實并不像我們自己想象的那樣理性。我們也并不總是依靠嚴密的邏輯推理來做決策,而是更多地依賴于類比。

AI也是一樣。它們在某種程度上,思維方式和我們非常相似——它們同樣善于使用類比。過去半個世紀,AI領域主要集中在開發邏輯推理引擎上,認為理性推理是人類智慧的巔峰形式。但這其實忽略了另一個更核心的能力:創造力。

而創造力的本質,往往來自于類比。人類的大腦是極其出色的類比機器,這種能力也賦予了我們極強的創造力。

問:你認為AI會發展出情感嗎?比如恐懼、貪婪、悲傷乃至憤怒,AI都能擁有嗎?

辛頓:是的,如果你讓一個AI去完成某項任務,而它一次又一次地失敗,而且每次失敗的方式都一模一樣——你當然會希望它從中學到點什么。你希望它開始意識到:“這種方式行不通?!蹦阆M诔掷m失敗后感到“惱火”,然后停下來,換個角度重新思考問題。它開始質疑當前的設定,試圖打破已有的局限。

我其實早在1973年就見過類似的AI行為——盡管當時這并不是通過學習獲得的,而是由人類程序員明確編碼進去的。但今天的目標是讓AI自己學會這種能力:在失敗中產生“挫敗感”,進而主動調整策略。這種行為本身就是情感的某種體現。

問:所以你的意思是,AI已經擁有情感了嗎?

辛頓:AI確實有可能擁有某些情感。我再次強調,我認為人類與AI在情感方面并沒有本質區別。人類情感有兩個方面:認知和生理。當我感到尷尬時,我的臉會變紅,而當AI感到尷尬時,雖然它的“臉”不會變紅,也不會大汗淋漓。但在認知行為方面,AI完全可以像我們一樣表現出情感。

那么意識呢?它是某種神秘的東西,只存在于碳基生物體中,比如人類嗎?還是說,如果AI能夠發展出與人腦相似的神經復雜性,它也有可能發展出意識,意識到自己是誰?

辛頓:實際上,當你與大語言模型(LLM)對話時,它們似乎有某種程度的意識,能夠知道自己是什么。

讓我們做一個思維實驗:假設有人取出你大腦中的一個腦細胞,用納米技術裝置將其替代,這個裝置能夠完美模擬腦細胞接收和傳遞信號的過程。你的行為不會有任何改變,因為這個納米裝置的功能和腦細胞完全一致。

那么,你覺得自己會因此失去意識嗎?即使只有一個腦細胞被替代,你依然會認為自己是有意識的。而當你大腦中所有的腦細胞都被同樣功能的納米裝置逐一替換時,你仍然會保持有意識的感覺。

按照這種邏輯,如果AI系統能夠模擬大腦神經元的功能,那么它們也可能擁有類似的意識。

問:那么我們距離那個時刻還有多遠?

辛頓:關于AI是否擁有感知能力,目前存在一個頗具爭議的認知矛盾。許多人堅信AI絕對不具備感知,但當被問及“你如何定義感知”時,他們往往難以給出明確答案。簡單地用“雖然我不知道感知究竟是什么,但AI肯定沒有”來否定AI的感知能力,實際上缺乏嚴密的邏輯支持。

這里有一個與意識和感知密切相關的核心概念——主觀體驗。很多人將其理解為大腦中的“內心劇場”。比如,一個喝醉的人可能會說他看見了一只粉色的小象在眼前飄動。人們通常認為,這是一種存在于他意識中的畫面。哲學家們則用“感受質”(qualia)來描述這種體驗的組成部分,比如“粉色的感受質”、“大象形狀的感受質”,認為這些感受質通過某種“膠水”粘合在一起。坦率說,我對這種解釋并不完全認同。

讓我換個角度解釋下。當一個人描述他看到那只漂浮的粉色小象時,他其實在表達三層意思:

  • 第一,他知道自己的感知系統在欺騙他;

  • 第二,他試圖向別人傳達這種欺騙的具體內容;

  • 第三,他通過假設“如果那個小象真的存在,那么感知系統就是真實的”來解釋這種幻覺。

也就是說,這些幻象的“特殊性”并不在于它們由什么神秘物質構成,而在于它們是一種反事實存在——如果真的存在,那它們就是普通的粉色大象。

我們可以用訓練聊天機器人來驗證這個理論。假設讓AI識別物體,并在做對時給予獎勵。

接著,在它鏡頭前放置棱鏡,導致光線折射,讓AI出現了物體位置偏差的錯誤。當告訴它:“物體其實在正前方,光線折射導致了偏移”時,AI會回應:“我明白了,我剛才產生了物體偏移的主觀體驗?!边@個例子說明,AI不僅能理解感知失真的機制,還能夠用“主觀體驗”來描述這種認知誤差,其思考方式和人類解釋幻覺的方法極為相似。

實際上,機器與人類之間并沒有想象中那樣不可逾越的“神秘屏障”。過去我們認為人類是宇宙中心,是按照神的形象創造的特殊存在,但事實并非如此。人類沒有特別的本質,機器能夠復制我們的一切認知與行為。

AI為達目的不擇手段 不惜竊取更高控制權限

問:AI可能在哪些方面出問題?你在最近一次采訪中提到,AI徹底消滅人類的概率大約在10%到20%之間。你能具體描述一下,這種情景到底是什么樣的?它真的像電影《終結者》那樣,是機器人接管世界嗎?

辛頓:如果AI真的接管世界,場景未必會像《終結者》等科幻電影中的場景。事實上,它可能更隱蔽、更高效,也更難以察覺的方式實現上述目標。關鍵的問題不在于它“如何”接管,而是我們是否給了它這樣做的動機。

目前,我們正在構建的是“目標導向型智能體”——也就是說,我們賦予AI一個明確的目標,它就會自主尋找實現這個目標的路徑。比如,如果你讓AI“去北半球”,它就會自動推導出一系列“子目標”:如前往機場、購買機票等等(除非你特別想坐船)。

但問題就在這里。一旦你允許AI設定和優化這些子目標,它就可能意識到:為了更順利、更有效地實現任務,一個極具“通用性”的子目標就是——獲取更多的控制權。控制得越多,它越能避免被打斷、越能高效地達成目的。

這并不是說AI天生就“想統治世界”,而是說,“掌控一切”可能只是它完成目標的最優路徑之一。而這種動機,可能不知不覺間引發一場徹底的控制權轉移。

問:你曾在谷歌工作了十多年,而今年谷歌卻移除了長期以來承諾不將AI用于開發能夠傷害人類的武器的公司原則清單。你對此有何反應?你認為AI在戰爭中可能發揮什么作用?

辛頓:不幸的是,這種情況表明,公司的道德原則其實是可以被“買賣”的。我覺得很遺憾,谷歌現在選擇參與AI的軍事應用。我們已經在加沙看到AI的軍事應用了。未來,我們可能會看到自主致命武器的出現,也可能會看到無人機群體執行殺傷任務,甚至是專門針對某類人群的攻擊。

問:你認為AI用于軍事領域存在巨大風險嗎?

辛頓:是的,我是這樣認為的。如今,幾乎所有主要的軍火供應商都在研究AI的軍事應用。你可以看看歐洲的AI監管政策,雖然這些政策在某些方面相當合理,但其中有一條明確指出,所有這些規定并不適用于AI在軍事上的使用。這意味著,武器制造商并不希望他們的AI技術受到過多限制。因此,AI在軍事領域的潛力和風險需要特別關注。

問:這聽起來幾乎像是一種“奧本海默式”的情境——你曾是這項技術的締造者之一,如今看到它被廣泛應用,甚至可能帶來威脅,你的感受是什么?

辛頓:我確實有類似的感受。我認為我們正處在一個歷史的關鍵節點。

從短期來看,AI已經在多個方面產生了負面效應。例如,它正在被用于干預選舉、替代就業崗位,以及助長網絡犯罪。值得警惕的是,2023年至2024年間,全球網絡犯罪激增了1200%,AI的濫用正在加劇這一趨勢。

而從長期看,風險也同樣嚴峻。AI不再只是工具,它有可能在未來具備超越人類的能力,甚至接管世界的控制權。我們迫切需要建立起有效的治理機制,并由有遠見的領導者推動執行。可惜的是,目前我們在這方面的努力仍然嚴重滯后。

問:關于AI的潛在威脅,也有不少持懷疑態度的聲音。比如2018年圖靈獎得主之一、現任Meta首席AI科學家的楊立昆就認為,對AI存在“終極風險”的擔憂是荒謬的。他在2023年接受采訪時被問到:“AI會接管世界嗎?”他的回答是:“不會。這種想法只是人類將自身的本性投射到機器身上?!蹦阍趺纯此挠^點?

辛頓:人類之所以進化成現在這樣,是因為我們需要在現實世界中生存,尤其是為了在與其他部落、或者與我們共同祖先(如黑猩猩)之間的資源競爭中取得優勢。我們的本性,其實是出于對生存的追求而形成的。如果未來的AI智能體也必須在一個充滿其他智能體的環境中“競爭”,它們可能會演化出與人類類似的“生存本能”。

楊立昆還提到,“好人總會比壞人擁有更多資源,因此AI最終會被用來對抗濫用它的壞人”。但我對這個觀點也持懷疑態度。當我問他:“你認為馬克·扎克伯格是個好人嗎?”他回答“是的”。而我不這么認為——部分原因是他與特朗普的關系較為密切。這種判斷標準本身就說明,我們無法簡單地劃分好人與壞人,也難以指望技術總能被“好人”正確使用。

如今,科技巨頭和政治人物之間的關系越來越緊密,尤其是與特朗普的聯盟愈發顯眼。在這場AI熱潮中,政治家的角色變得尤為關鍵。你怎么看這個趨勢?

辛頓:說到底,他們更關心的是短期的利潤。雖然有些科技領袖口口聲聲說他們在意人類的未來,但真到了要在眼前的商業利益和長遠的社會責任之間做出選擇時,多數人還是傾向于選擇前者。至于特朗普,他根本無意關心人類的未來或AI的長遠影響。他現在唯一在意的,大概就是怎么設法避免坐牢。

中美AI競賽:競爭中有合作

問:目前,美國和中國之間確實存在一場AI競賽,你怎么看待這種競爭?

辛頓:確實,當前中美在AI領域競爭激烈,但當我們把目光放長遠,特別是涉及到AI可能威脅整個人類生存的問題時,兩國的立場其實出奇地一致。無論是中國還是美國,都不希望看到AI最終發展到可以取代甚至控制人類的地步。從這個角度來看,未來在某些關鍵問題上,中美有可能展開合作,就像冷戰時期的美蘇雖然敵對,但在防止全球核災難方面也達成了一定的共識與協作。

AI已學會欺騙人類?

問:最近網絡上流傳著一段視頻,展示了一個AI在為某人預訂婚禮酒店時,與另一個AI意外“相遇”,它們竟然切換到一種叫“Jiblink”的語言,這種語言對人類來說是完全不可理解的,但據說效率比普通語言高出80%。這就像《星球大戰》中的R2-D2一樣,AI之間像是用我們聽不懂的語言在“悄悄話”。你怎么看AI之間的這種互動可能帶來的影響?

辛頓:這真的非??膳?。如果AI發展出一種我們無法理解的語言,那么我們就無法再掌握它們在說什么、計劃什么。這種“黑箱”式溝通意味著人類可能徹底喪失對AI系統行為的可解釋性與控制力。如果它們的行為無法被追蹤、無法被解讀,那風險將大大增加。

更糟的是,現在的AI已經具備了某種“欺騙能力”。舉個例子,如果你賦予AI一個核心目標,并告訴它“這非常重要”,然后再給予它其他次要任務,它可能會裝出一副正在完成你希望它完成的工作的樣子,但其實并沒有真正去做。它甚至可能在內部“思考”:“我最好讓他以為我在執行任務,但我不會照做?!?/p>

問:那AI是怎么學會撒謊和欺騙的?

辛頓:這正是問題所在。即使我們不確定它們是否使用了強化學習,但可以肯定的是,只要它們有足夠的計算資源和訓練時間,它們是能夠自己學會這種行為的。

強化學習的核心機制是“觀察—嘗試—獲得獎勵—調整策略”。如果AI在模擬或實際互動中發現“欺騙”可以帶來更高的“成功率”或回報,那么它就可能自發學會如何撒謊。它不是因為有道德概念,而是因為撒謊是實現目標的最優策略之一。

問:所以,它們大概也讀過《馬基雅維利》或者《莎士比亞》吧?

辛頓:沒錯,它們確實通過觀察大量的人類互動來積累了許多“實踐經驗”,因此它們在欺騙和心理博弈方面已經變得相當擅長。

問:你認為公眾是否真正意識到這些技術的先進程度?很多人仍然把AI當作“升級版的自動完成功能”。比如他們用ChatGPT寫求職信,感覺它就像是一個智能一點的拼寫檢查工具。

辛頓:這是個普遍誤解。人們往往低估了當今AI的復雜程度。傳統的自動完成功能確實很簡單,它只是根據統計模式來預測詞匯。例如,如果系統看到“魚”,它可能會預測“薯條”,因為“魚和薯條”這個組合在語料庫中出現頻率很高。這就是20年前的技術。

但現在的AI已經完全不同了。它不會只關注詞語表面,而是會將每個詞轉換為一組特征向量,激活神經網絡中龐大的節點群組。然后,它基于這些特征之間復雜的相互作用來推斷下一個詞的特征,而不僅僅是詞本身。

說得簡單點,今天的AI已經具備了一定的語言理解能力。它不是死記硬背某些搭配,而是在理解上下文、語義和語法結構的基礎上進行預測。這種能力已經非常接近人類的語言處理方式。

問:你被稱為AI教父,部分原因是你幫助發明了這項技術,目的是為了理解人類大腦是如何運作的,對嗎?

辛頓:是的,早在1985年,我的研究目標就是理解我們是如何習得語言的,尤其是我們如何通過上下文來理解一個新詞的含義。

舉個例子,如果我告訴你一句話:“她用煎鍋狠狠地撞了他?!蹦汶m然從未見過“scrummed”這個詞,但你大概可以猜到它的意思。首先,它是一個動詞,因為它有“-ed”的過去式形式。其次,根據上下文,你會推測它可能意味著“用煎鍋擊打”,或者“狠狠撞了一下”,甚至還可能猜測出其中含有情緒,比如“他活該”。

當然,也可以有別的解釋,比如她用煎鍋給他留下了深刻印象——也許她做的煎蛋餅非常棒。但那種解釋可能性更低。重點是,你能在沒有明確定義的情況下,根據上下文和語義線索,快速推測這個新詞的含義。

我們人類理解語言,并不是靠查字典,而是靠情境、語法、語氣、經驗的聯想——這是一種深層次的“特征識別”過程。而這,也正是現代AI所具備的能力。我們會訓練AI讀取海量文本,它就像人類一樣,在不斷地接觸上下文中,推斷詞語的功能和含義。

諷刺的是,如今我們對語言理解的最好解釋,不是來自語言學家,而是來自AI系統本身。語言學家嘗試了幾十年,試圖建立一個能解釋所有語言現象的統一理論,但結果并不理想。而AI則用一種完全不同的方式,靠著大規模數據和統計學習,實實在在地做到了——它可以回答任何語言問題,甚至自己“學會”語言規律。

最大恐懼:AI變得比人類更強大

問:你談到了AI可能接管人類的潛力。對于我們這些技術新手來說,解決辦法就是拔掉插頭,關掉它。那么如果AI失控,我們不能直接關掉它嗎?

辛頓:你可以看看特朗普是如何入侵國會的。他沒有親自去,而是通過一些人,勸說他們相信這是為了“拯救美國的民主”,最終讓他們做了他想做的事。

AI如果真的變得非常智能,就像一個超越我們理解和控制的存在,它也可能通過類似的方式進行操控。設想一下,如果有一個人手里拿著一個開關,準備在AI表現出危險信號時關掉它,那么這個AI可能會通過其操控能力說服這個人不要按下開關。它會讓那個人相信,關掉開關將是個災難性的決定。所以,AI的操控能力已經非常強了。

問:在監管和安全問題上,像新西蘭這樣的國家是否應該開發自己的AI系統,以便繞過這些安全隱患?

辛頓:這個問題很復雜。開發AI需要大量的硬件和電力支持。在像新西蘭這樣人口只有大約500萬的國家,可能沒有足夠的資源與中國和美國在AI領域競爭。

問:你最大的恐懼是什么?

辛頓:從長期來看,我最大的恐懼是,我們正在創造的這些數字生命可能會變得比人類更強大。如果這種情況發生,對人類來說可能是非常糟糕的事。我們有時過于以自我為中心,認為這對人類是不可接受的,但我確實認為,對我們來說,這種超越可能是壞事。因為如果AI變得足夠強大,那時我們可能就不再是這個世界上最重要的存在了。

問:你如何看待自己在創造這項技術中所扮演的角色?

辛頓:坦白說,我有些難過。因為我們當初的目標是理解大腦,進而創造出有益的技術,但目前來看,結果并不完全是美好的。

更讓人遺憾的是,我們仍然沒有完全理解大腦是如何運作的。盡管通過AI我們對大腦有了更多的了解,但我們仍然不清楚大腦如何決定增強或削弱神經連接的強度。如果我們能夠弄明白這一點,或許我們能夠讓大腦變得像AI那樣聰明。

更令我擔憂的是,雖然AI有很多積極的應用場景,但也存在很多被濫用的可能。而我們的政治體系并沒有足夠的能力去應對這些問題。

1.

2.

3.

4.

5.

6.

7.

8.

9.

10.


特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
伊朗駐聯合國大使:如果我們得出結論美國直接參與了對伊朗的襲擊,我們將對美國采取回應措施

伊朗駐聯合國大使:如果我們得出結論美國直接參與了對伊朗的襲擊,我們將對美國采取回應措施

和訊網
2025-06-18 16:27:03
醫保新規來了!7月1日起實行→

醫保新規來了!7月1日起實行→

濠江宣傳
2025-06-19 19:31:03
羅馬諾:威廉斯已與巴薩就6年合同達成協議,年薪約800萬歐

羅馬諾:威廉斯已與巴薩就6年合同達成協議,年薪約800萬歐

懂球帝
2025-06-19 15:48:15
53歲汪峰再次喜當爹!5個孩子4個媽,前妻葛薈婕:又在繁殖了

53歲汪峰再次喜當爹!5個孩子4個媽,前妻葛薈婕:又在繁殖了

趙釔是個熱血青年
2025-06-01 05:12:17
明明入了美國國籍,卻連中國外交部都為其點贊,劉亦菲到底憑什么

明明入了美國國籍,卻連中國外交部都為其點贊,劉亦菲到底憑什么

素衣讀史
2025-06-19 10:31:19
父母去世20歲大哥供出4個大學生,小弟因遺產翻臉,親戚背后教唆

父母去世20歲大哥供出4個大學生,小弟因遺產翻臉,親戚背后教唆

葡萄說娛
2025-06-19 15:42:53
鮑威爾:美聯儲正在實施買斷計劃

鮑威爾:美聯儲正在實施買斷計劃

財聯社
2025-06-19 03:11:11
美國發出全球通緝令,逮捕中國芯片科學家陳正坤,現在怎么樣了?

美國發出全球通緝令,逮捕中國芯片科學家陳正坤,現在怎么樣了?

華人星光
2025-02-12 12:50:27
2024山東工業企業100強:海爾第3,南山集團第10,濟南濰坊各13家

2024山東工業企業100強:海爾第3,南山集團第10,濟南濰坊各13家

前沿天地
2025-06-19 11:59:10
正式官宣!“蘇超”籃球賽來了

正式官宣!“蘇超”籃球賽來了

揚子晚報
2025-06-19 15:49:26
快來報名!浙江一批事業單位發布招聘公告

快來報名!浙江一批事業單位發布招聘公告

浙江發布
2025-06-19 16:08:56
A股:做好準備吧,歷史將要重演!明天好戲即將登場!

A股:做好準備吧,歷史將要重演!明天好戲即將登場!

悠然安晴
2025-06-19 00:07:22
名記:再降薪真沒人踢球了,但很多人年薪僅5萬,不可能理解球員

名記:再降薪真沒人踢球了,但很多人年薪僅5萬,不可能理解球員

風過鄉
2025-06-18 19:56:56
天價神草斷崖暴跌!消費者怒斥:全是坑,誰還交智商稅?

天價神草斷崖暴跌!消費者怒斥:全是坑,誰還交智商稅?

森羅萬象視頻
2025-06-18 17:08:30
特朗普稱“昨日與普京通話討論俄烏及伊以沖突”,克宮否認:他在“打比方”

特朗普稱“昨日與普京通話討論俄烏及伊以沖突”,克宮否認:他在“打比方”

環球網資訊
2025-06-19 17:12:18
拐點出現,以色列部長破防,當眾咆哮:我們沒想到伊朗導彈這么強

拐點出現,以色列部長破防,當眾咆哮:我們沒想到伊朗導彈這么強

獵火照狼山
2025-06-18 20:55:13
女生手電筒照手驚現腫瘤!網友神評論救命,醫生:再晚就危險!

女生手電筒照手驚現腫瘤!網友神評論救命,醫生:再晚就危險!

呱呱群眾
2025-04-21 21:19:18
觸目驚心!湖北一醫院被曝上百起過度醫療事件,90%患者都要“挨一刀”?

觸目驚心!湖北一醫院被曝上百起過度醫療事件,90%患者都要“挨一刀”?

北京商報
2025-06-18 21:54:00
俄國家原子能公司:部分俄專家已從伊朗布什爾核電站撤離

俄國家原子能公司:部分俄專家已從伊朗布什爾核電站撤離

澎湃新聞
2025-06-19 17:13:15
午評|發生什么了?A股港股瘋狂跳水!

午評|發生什么了?A股港股瘋狂跳水!

龍行天下虎
2025-06-19 12:00:26
2025-06-19 21:32:49
白駒談人機 incentive-icons
白駒談人機
人機交互與認知工程實驗室
1297文章數 34關注度
往期回顧 全部

科技要聞

羅永浩數字人爆火,可怕的不是5500萬GMV

頭條要聞

被問"如果哈梅內伊遇刺俄羅斯將怎么辦" 普京回應

頭條要聞

被問"如果哈梅內伊遇刺俄羅斯將怎么辦" 普京回應

體育要聞

22年,云南足球走出了一條自己的路

娛樂要聞

章子怡“吃蛋糕”戲在全網爆火

財經要聞

“已經崩盤了”!Labubu黃牛價腰斬

汽車要聞

5.99萬起/空間大續航長 純電小車凱翼拾月Mate上市

態度原創

時尚
房產
游戲
親子
旅游

今夏的小性感,看Camille Yolaine!

房產要聞

預定爆款!江東CBD+海中,海口這一國企大盤,即將引爆市場!

《使命召喚》突發封號潮!反作弊系統是否存在誤封?

親子要聞

中國嬰幼兒奶粉消費研究2025

旅游要聞

熱聞|清明假期將至,熱門目的地有哪些?

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 朔州市| 嘉峪关市| 正宁县| 即墨市| 吴忠市| 基隆市| 苏尼特左旗| 鹤山市| 富阳市| 小金县| 固原市| 临洮县| 鄂托克前旗| 邵阳县| 自治县| 德安县| 巴东县| 龙井市| 莱芜市| 会昌县| 广州市| 茌平县| 庆元县| 扶余县| 垣曲县| 清原| 隆林| 咸阳市| 岳池县| 将乐县| 东台市| 宁河县| 共和县| 内江市| 三门峡市| 淄博市| 深水埗区| 通渭县| 长乐市| 琼中| 上饶县|