轉載聲明:除調整格式外,不得對原文做改寫、改編。原創不易,謝謝!E-mail:yellow@aliyun.com
?聲明:本文為原創文本,非生成式,轉載請注明出處!
商務咨詢/顧問/請@yellowscholar?作者:黃先生斜杠青年
#時間深度 #人類的終結 #世界末日 #人工智能 #核戰爭
自從人類存在以來,他們就一直害怕世界末日。目前,威脅的范圍特別大,無論是核戰爭、人工智能還是小行星撞擊。
啟示錄是怎么做到的?Yaniv Shimony 面臨?許多人類威脅
簡而言之
?世界末日的情緒。 許多人目前感覺他們生活在末世,并對人類的生存感到恐懼
?在深淵上。如果你相信哲學家托比·奧德(Toby Ord)的話,一個可能的原因就是:在人類的歷史上——關鍵詞是核武器——人類第一次有能力消滅自己。
?威脅場景。 危險是多方面的,從人工智能和氣候變化等自制的危險到我們無法控制的危險;例如,太陽系的盡頭。
大約 99% 的人已經死亡,這個物種似乎注定要滅亡。整個地球上只剩下 1,300 個生殖個體:自從直立人瀕臨滅絕以來,已經過去了將近 900,000 年。不利的條件是罪魁禍首;當時地球上很冷,嚴重的干旱越來越頻繁。許多曾經作為人類食物的動植物已經消失了。據說,最糟糕的時期花了 100,000 多年才過去,人類才得以恢復。我們差點沒能成功。
所以在那之后的一切都幾乎沒有發生。輪子不會被發明出來,ChatGPT 也不會被發明出來。人們不會飛到月球上,沒有人會畫蒙娜麗莎或建造金字塔。而現在,僅僅在地質學的片刻之后,據說又快到了那個時候——盡管我們的物種現在有超過 80 億個標本:大自然會帶來疾病,火山噴發,夏天越來越熱。此外,還有我們自己創造的所有其他生存威脅:人工智能、核彈等等。哦,是的,別忘了:即使我們活過了這一切,太陽也會在某個時候吞噬我們。
我是斜杠青年,一個PE背景的雜食性學者!?致力于剖析如何解決我們這個時代的重大問題!?使用數據和研究來了解真正有所作為的因素!
不可避免地走向世界末日?
哲學家托比·奧德 (Toby Ord) 說,我們現在必須應對如此多的生存威脅并非巧合。因此,“現在”必須被慷慨地解釋,指的是過去和未來的幾十年。“懸崖”是他關于目前困擾人類的嚴重危險的書名。Ord 的論點是,人類正處于當前技術知識的十字路口:要么我們在可預見的未來毀滅自己,要么我們學會不利用我們的發明來對付我們。
然而,Ord 可能只是錯了——人類將繼續像以前一樣生活,由于許多進步,世界甚至會變得更好一點。
可能的啟示錄 (I):核戰爭
圖片通過:Seth Baum
確切的數字尚不清楚,但可以假設全球大約有 12,500 枚核彈頭。絕大多數儲存在漂亮國和鵝螺絲。冷戰大約在 35 年前結束,但核戰爭的威脅仍然存在,并在 2022 年鵝螺絲襲擊烏克蘭后再次成為現實。毋庸置疑,核戰爭將對相關交戰方產生毀滅性影響。然而,鮮為人知的是,其后果可能會成為對全人類的生存威脅。
但是,為什么鵝螺絲和漂亮國之間的核戰爭會在菲律賓、智利或烏干達造成人員死亡呢?因為全球影響會讓人感到恐懼。最大的風險可能是所謂的核冬天。如果原子彈的爆炸強度如此之大,以至于它們的灰燼會上升到云層上方的平流層,而不是隨雨水落回地球,就會發生這種情況。然后就會出現全球變暗。地球上的降水會減少,平流層中的煙霧會破壞臭氧層,這可能導致更強的紫外線輻射,從而導致更多的癌癥。植物生長會受到影響,因此人們會擔心農作物歉收和饑荒。
如果我們運氣不好怎么辦
當然,極端災難性事件的模型受到很大不確定性的影響。但是,在核冬天之后,文明崩潰的可能性相當高。當然,影響的嚴重性取決于敵對行動的程度。廣島和長崎的轟炸造成許多人死亡,但并未威脅到全球文明。
必須發生什么才能導致人類物種滅絕?如果我們運氣不好,一場擁有一百枚甚至更少炸彈的核戰爭可能意味著我們的終結。
除了核冬天之外,還有第二個因素令人擔憂:核戰爭對全球經濟的影響。許多日常產品都依賴于全球供應鏈的運作。我們看到相對較小的中斷(例如 2021 年一艘貨船被困在蘇伊士運河)產生了相對嚴重的影響。
供應鏈的末端
現在讓我們想象一下,一場核戰爭將摧毀世界各地的幾個主要城市。后果會很嚴重。
當然,即使在核冬天的嚴峻情況下,人類也可以通過多種方式生存。
在緊急情況下,我們可能不得不為以下幾種情況做好準備:農業產量下降,糧食安全出現問題,最重要的是,世界部分供應鏈將被摧毀。社會對此有何反應?每個人都會全力以赴并共同努力嗎?還是會爭奪剩余的資源?沒有人能預測這一點。
當然,即使在核冬天的嚴峻情況下,人類也可以通過多種方式生存。例如,食物也可以在陽光不足的環境中種植——例如,在室內借助不依賴陽光生產的能源。還有很多其他的想法。唯一的問題是,在大規模實施中,我們將取得多大的成功。
核戰爭的可能性有多大??????
弗拉基米爾·普京(Vladimir Putin)喜歡威脅要發動核打擊,伊朗正處于生產自己的炸彈的邊緣。而在冷戰期間,由于系統錯誤,幾乎實施了核打擊。
那會有多大的世界末日呢??????
取決于你住在哪里。離可能卷入核戰爭的國家越遠越好。智利將是一個選擇。
我們能做些什么嗎??????
沒有。在其他國家仍然擁有核武器的情況下單方面解除核武器肯定不是一個好的策略。
事實與數據
當世界終究沒有終結時:2000 年
1999 年 7 月或 8 月,也就是 8 月 11 日中歐日全食前后,諾查丹瑪斯預言了一位“偉大的恐怖之王”將從天而降。它的到來未能實現,由于 Y2K 錯誤導致我們的文明完全崩潰。當時,人們擔心計算機會誤解從“99”(1999 年)到“00”(2000 年)的變化并引發混亂。這些情景從金融部門的崩潰到全球停電不等。
可能的啟示錄 (II):人工智能
圖片通過:James Barrat
假設你應該坐上飛機,并了解到設計噴氣式飛機的工程師中有一半認為墜毀的概率為 10%。此外,技術人員同意飛機沒有通過“可解釋性測試”;這臺機器是一個“黑匣子”,其功能沒有人理解,甚至無法解釋。然后是控制問題:飛機在空中停留的時間越長,它的行為就越容易變得不可預測、不受控制。
這些條件不適合輕松飛行。最后但并非最不重要的一點是,您將了解到每個工程師都有長期的犯罪記錄 - 例如,向漂亮國國會散布謊言、掠奪性商業行為或發布假新聞。
人類與超級智能
您會登機嗎?不?然后是時候變得非常強大了:您已經身處其中。我們談論的不是飛機,而是 OpenAI、Google、Microsoft 和 Meta 等公司正在推向市場的強大人工智能。這些程序的精湛技藝將使我們的生活和工作變得更加輕松——但同時也會危及我們的隱私、我們的工作,甚至我們的生命。
谷歌首席執行官桑達爾·皮查伊 (Sundar Pichai) 聲稱,生成式人工智能引發了一場比電力或火的發展更深刻的技術和文化革命。人工智能的反對者擔心,到 2030 年,它將使我們失去大約 3 億個工作崗位。盡管如此,我們對新的可能性感到欣喜和著迷。ChatGPT——一種所謂的大型語言模型 (LLM),其流利程度簡直是神奇的——在 2022 年 11 月推出后僅五天就已經擁有 100 萬用戶。Facebook 曾經花了大約兩年時間才生產出相同的數字,而 YouTube 花了一年半的時間。
十年前,一本名為《我們的最終發明》(Our Final Invention)的書。當我翻閱它時,我注意到幾乎每個詞都提到了我們今天所處的困境。這是個壞消息,因為《我們的最終發明》本來是作為一個警告。甚至我都沒有想到它會這么快發生。作者預見到的是數字技術呈指數級加速發展。我們會變得越來越好,直到我們達到一個被稱為“智能爆炸”的臨界點。
人類只是一個階段嗎?
這是指人工智能可以提高自身的智能,直到它比人類大數千倍或數百萬倍的那一刻。我還寫道,在與超級智能的第一次(可能是短暫的)相遇中,我們將有很小的機會幸存下來,因為我們不知道如何與更聰明的生物共存。人工智能的“教父”之一 Geoffrey Hinton 曾經說過:“我不是那么樂觀,因為我不知道任何更聰明的事物被不太聰明的事物控制的例子。
情況有多糟糕?在 2022 年的一項調查中,近一半的受訪領先機器學習研究人員表示,他們至少有十分之一的人可能會通過他們的工作導致人類滅絕。根據耶魯大學 CEO 峰會上進行的一項調查,42% 的 CEO 認為人工智能有可能在未來 5 到 10 年內摧毀人類。
你怎么能證明每天上班開發可能意味著地球末日的算法是合理的呢?
最近,1,100 名 AI 專家和數千名其他專家簽署了一封來自未來生命研究所的公開信,呼吁暫停訓練比當前更強大的大型 AI 系統六個月。信中說,風險實在是太高了。有太多的未知數。
你怎么能證明每天上班開發可能意味著地球末日的算法是合理的呢?2023 年 5 月,AI 杰出人物 Geoffrey Hinton 決定他不能再這樣做了。他辭去了 Google 的職務,以便能夠自由地談論人工智能的危險:“可以想象,人類只是智能進化的一個臨時階段,”他說。
飛機著火了
人工智能倫理學家蒂姆尼特·格布魯 (Timnit Gebru) 因指出 LLM 可能會傳播刻板印象和偏見而被谷歌解雇。Gebru 的繼任者也被解雇。谷歌可能只喜歡倫理學家,只要他們不做自己的工作。
Gebru 認為,與生成式 AI 已經帶來的問題相比,人類面臨的生存風險只是一個未來主義的副業:例如,在 2023 年 5 月,AI 創建的一張圖像描繪了五角大樓的爆炸。它看起來如此真實,以至于股價短暫暴跌。鵝螺絲發布了烏克蘭總統澤連斯基投降的視頻。深度偽造可以通過令人信服地模擬核攻擊來引發核戰爭。
斯坦福大學以人為本的人工智能研究所發布的 2023 年 AI 指數報告發現,36% 的 AI 研究人員認為生成式 AI 可能導致核災難。因此,我們不能奢侈地一個接一個地解決短期和長期問題,而必須同時解決所有問題。回到我們的類比,如果你的飛機著火了,你不能忽視它正在朝著一座山飛去的事實。
AI 接管的可能性有多大??????
取決于你問誰。對一些人來說,人工智能滅絕人類的潛力是一種特別愚蠢的媒體炒作,而另一些人則將其視為完全被低估的威脅情景。
它有多世界末日??????
謝謝你。可以想象兩種情況:1. 一個更高度發達的智能想要消滅我們,而我們的機會與我們爬上的蠕蟲差不多。2. AI 編程錯誤,在完成任務時消耗了地球上的所有資源。
我們能做些什么嗎??????
清楚!我們可以停止對 AI 的研究。但是,由于復雜的 AI 也可以解決我們的許多問題,因此這不太可能發生。
可能的啟示錄 (III):氣候變化
圖片通過:David Spratt
甚至 2023 年氣候變化的速度也讓科學家們感到震驚:“令人驚訝。驚人。令人 痛心。不像話。令人不安。奇怪。噩。難以置信,“氣候學家埃德·霍金斯 (Ed Hawkins) 說,例如,當時 9 月的氣溫比之前的月度記錄高出 0.5 攝氏度。2023 年是第一年比 1850 年至 1900 年的參考期高 1.5 攝氏度。2024 年,天氣再次變暖。
合理的最壞情況
為了將全球變暖限制在 2 攝氏度以內,必須在 2020 年至 2030 年期間將排放量減半,但相反,溫室氣體排放和煤炭消耗量都創下了新紀錄。最大的國家化石燃料生產商正計劃進一步擴大生產,世界各國政府目前的計劃可能會導致 2050 年的排放量幾乎與今天一樣高。
聯合國秘書長安東尼奧·古特雷斯 (António Guterres) 表示,“全球沸騰的時代”現在已經開始。
因此,世界正朝著 3 攝氏度的升溫方向發展;也許甚至更多,因為當前的氣候模型沒有充分考慮系統層面的所有放大反饋。英國智庫查塔姆研究所(Chatham House)假設了3.5攝氏度或更高的“合理的最壞情況”。
聯合國秘書長安東尼奧·古特雷斯 (António Guterres) 表示,“全球沸騰的時代”現在已經開始。“如果我們像以前一樣繼續下去,我無法想象這個文明會存活到本世紀末,”氣候學家蒂姆·倫頓 (Tim Lenton) 說。新南威爾士大學的科學家警告說,“如果平衡氣候低于目前的二氧化碳濃度,海平面將升高 5 到 25 米”。據查塔姆研究所稱,到 2050 年,全球糧食需求將增加 50%,但農作物產量可能會下降 30%。
生存危機管理
化石燃料行業的力量是可怕的,這在迪拜的 COP28 上就很明顯了。但政府間氣候變化專門委員會 (IPCC) 也通過提出“與政策相關”的科學來發揮作用,這些科學往往不情愿并專注于錯誤的問題。例如,IPCC 提供了大量關于溫度升高 1.5 到 2 度的世界中的生命信息,但幾乎沒有提供任何關于我們實際正在走向的高溫 3 或 4 度的世界的信息。
面對即將到來的崩潰,世界需要全球動員——緊急響應——盡快將排放降至零,并推動采取進一步措施減少二氧化碳。我們還需要找到在短期內為地球降溫并保護重要系統的方法,以避免不可逆轉的系統級變化和“溫室”情景。
這需要大膽的政治領導,因為市場一次又一次地證明,它們沒有能力評估和定價風險;他們顯然無法應對生存威脅。政策制定者現在面臨的挑戰是接受顛覆并參與生存風險管理。
氣候變化的可能性有多大??????
它已經在那里,但還沒有達到世界末日的規模。
它會有多大的世界末日??????
即使存在悲觀的情景,人們很可能仍然能夠居住。
我們能做些什么嗎??????
是的,也不是。阻止氣候變化已經為時已晚。我們絕對可以控制它。我們如何做到這一點——放棄還是技術創新,或兩者兼而有之——是我們這個時代的重大政治問題。
事實與數據
當世界終究沒有終結時:瑪雅歷法
也許最著名的現代世界末日神話圍繞著瑪雅歷法展開。古老的中美洲文明留下了一條歷程約 5,125 年,于 2012 年 12 月 21 日結束的日歷。許多人將此解釋為世界末日將在這一天迫在眉睫。世界末日的情景范圍從行星碰撞到地震和火山爆發等自然災害。盡管科學家指出,日歷的結束只是為了標志著過渡到一個新的周期,但世界末日的敘述對許多人來說更令人興奮。12 月 21 日的結束相當不引人注目——12 月 22 日開始。
可能的啟示錄 (IV):Grey Goo
圖片通過:Allison Duettmann 和 Beatrice Erkers
在所有需要害怕的提議中,“Grey Goo”的概念可能是最奇怪的。這個假設的場景是關于一個不會停止自我復制的自主納米機器人。如果納米技術的進步繼續以與最近類似的速度發展,則不能完全排除這種機器人的可能性。它可能是意外的,也可能是由惡意行為者創建的,并且會失控。因為自我復制的納米機器人可以吃和我們一樣的物質——也可能吃人類的物質——它們最終會與人類的存在不相容。世界將被微型納米機器人覆蓋和吞噬——并在此過程中變成“灰色粘液”。
“Grey Goo”的概念源于對與納米技術相關的極端最壞情況的理論討論。它通過 Bill Joyce 于 2000 年在《連線》雜志上發表的著名文章“為什么未來不需要我們”而廣為人知。喬伊斯的刻畫將一個令人毛骨悚然的思想實驗變成了一個看似迫在眉睫的威脅。
就像歌德的巫師的學徒
Grey Goo 場景與人工智能中的“回形針最大化器”有相似之處。這個恐怖的場景是關于一個 AI 的任務是制作回形針,但超額完成了這項任務,以至于它耗盡了地球上的所有資源。最后,這一切都讓人想起歌德的“巫師的學徒”,他失去了對本應為他打掃房子的掃帚的控制。所以,這是關于對失去對我們自己創造的事物的控制的恐懼。
最后但并非最不重要的一點是,納米技術也有可能促進全新生物或化學武器的開發。
我們應該害怕“Grey Goo”的情況嗎?盡管細節引人注目,但它可能不是與納米技術相關的最緊迫的問題。風險更大。例如,納米技術可以促進武器級技術的傳播。它可以使單個參與者能夠使用現成的組件組裝復雜的產品,例如自動槍支。最后但并非最不重要的一點是,納米技術也有可能促進全新生物或化學武器的開發。這將非常難以控制,并提出了一個問題,即是否有可能在不建立反烏托邦監控國家的情況下監控武器級納米技術的發展。
因此,有充分的理由考慮納米技術的發展。與其害怕 Gray Goo 或其他可怕的故事,不如利用納米技術的經濟優勢,并嘗試保護自己免受其現實風險。
可能性有多大? ?????
不多。“Grey Goo”情景是一個純粹的理論思想實驗。盡管如此,保持警惕并沒有什么壞處。
它有多世界末日??????
絕對是世界末日。當納米機器人在世界上繁殖并吃掉它們時,地球上的所有生命都已經太晚了。
我們能做些什么嗎??????
絕對。如果我們不希望納米技術成為威脅,我們現在必須考慮如何防止這種情況發生。
未完待續......
了解更多時間深度剖析,盡在于此@黃先生斜杠青年
商業咨詢和顧問業務,請@yellowscholar
關注我,帶你先看到未來!?
轉載聲明:除調整格式外,不得對原文做改寫、改編。原創不易,謝謝!E-mail:yellow@aliyun.com
?聲明:本文為原創文本,非生成式,轉載請注明出處!
商務咨詢/顧問/請@yellowscholar?作者:黃先生斜杠青年
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.