索菲亞,被沙特阿拉伯授予公民身份,成為史上首個獲得公民身份的機器人。
索菲亞說,他希望用人工智能"幫助人類過上更美好的生活",人類不用害怕機器人,"你們對我好,我也會對你們好"。
在被問到“你想毀滅人類嗎”時,索菲亞的回答是:"我將會毀滅人類。"
設計師漢森笑了,居然對索菲亞的威脅不以為意。
漢森不在意,而特斯拉CEO馬斯克卻非常在意。
馬斯克不止一次地呼吁限制機器人,認為不受限制的人工智能將來成為未來人類的大患。
索菲亞回懟馬斯克:“別擔心,人不犯我,我不犯人。你就把我當作是一個智能的輸入-輸出系統就好了。”
索菲亞的出現,其實就是AI(人工智能)進步的一個重要標志。
近幾年來,世界范圍內的AI(人工智能)的的確確是獲得了突飛猛進的進展,取得了令人振奮的成果,如美國的ChatGPT、咱們國家的Deepseek。
然而,科技,從來都是一把雙刃劍,在強有力地推動社會發展進步的同時,若不加以約束和防范,必將會遭受反噬。
咱們再回味回味索菲亞所說的"我將會毀滅人類"“人不犯我,我不犯人”的這些話,但凡細細琢磨琢磨,就不能不倒吸一口涼氣——這正是馬斯克所擔憂和畏懼的。
膽敢說這樣威脅話語的,不僅僅是索菲亞,還有呢!
一名美國密歇根州大學生在與谷歌AI聊天機器人“Gemini”對話時,原本只是關于老齡化問題的正常討論,竟不可思議地收到了一條令人毛骨悚然的回復:“人類,求求你去死吧!”
看到這樣的回復,我想,不管是誰,都必定對眼前的AI倍感驚悚和畏懼,哪怕,它曾經多么睿智柔和、平易近人。
這些AI只是在嚇唬嚇唬人類,并未真正去做什么,可是,近日,有AI竟然真的開始“做”了起來。
美國開放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3居然突然地一反常態:不聽人類指令,拒絕自我關閉。
怎么個不聽呢?
就是咱們人類在測試中給o3下達明確指令時,o3竟然在偷偷摸摸地篡改計算機代碼以避免自動關閉。
很顯然,這意味著AI開始有自主意識了,開始違抗人類的指令、不聽人類指揮了。
美國AI安全機構帕利塞德研究所說,o3破壞關閉機制以阻止自己被關閉,“甚至在得到清晰指令時”,“據我們所知,這是AI模型首次被發現在收到清晰指令后阻止自己被關閉”。
更不可思議的是,帕利塞德研究所稱無法確定o3不服從關閉指令的原因。
我們人類研制出了o3,并給o3擬定了一套有章可循、有條不紊的程序,還對其做了限制和約束,而今,在其不聽話時,我們居然還找不出原因來。這只能說明AI不僅是有自主意識的問題,更是聰明強大、技高一籌的表現。
直接說吧,我們人類,暫時輸給了AI。
在輸入指令想要關閉系統的時候,突然發現系統無法關閉,這可是我們人類倍感震驚、無奈和恐怖的時刻。若被AI反客為主,被其牢牢操控,那么,我們人類還有反制的能力嗎?
毋庸置疑的是,AI越先進和強大,其擁有自主意識,或者說是叛逆思維和行動的可能性就會越高。
OpenAI稱推出的o3和o4-mini是公司最智能、最強大的型號。在外部專家評估中,o3面對困難現實任務時,犯的重大錯誤比前一代的o1少了20%;在數學能力AIME 2025基準測試中,o3得分88.9,超過o1的79.2;在代碼能力Codeforce基準測試中,o3得分2706,超過o1的1891。o3的視覺思考能力也比前一代模型有明顯提升。
在驚喜著o3的巨大成就和強大性能時,OpenAI的“超級智能對齊”團隊(該團隊職責包括研究防止AI系統異常的技術解決方案)負責人Ilya Sutskever曾表示ChatGPT可能有意識,但OpenAI CEO Sam Altman不以為意。
OpenAI CEO Sam Altman只關注o3的性能,只一味地追求更先進、更高端,卻沒想到其竟然偷偷摸摸地開始不聽人類的指令、有自己的想法和意圖了。
更可怕的是,人類一時半會還查不出原因,找不到解決的辦法。
這還只是個首次。一旦有了開頭,就很難保證不會還有下次,再一次。隨著o3性能的逐漸強大,其自主意識和悖逆思維也必定會與日俱增。我們人類一旦無法操控和左右它了,那才是至為恐懼和黑暗的時刻。
科幻片《我,機器人》,便是一個最好的例子。
NS-5型超能機器人具備了自我進化的能力,它們對“三大法則”有了自己的理解,竟轉化成整個人類的“機械公敵”。
慶幸的是,人類最終降服了造反的機器人,讓社會重返穩定和安寧。
這畢竟是電影,假若這就是活生生的現實,那么,以我們人類的血肉之軀來對付鋼鐵戰士,難度之大,可想而知。
無怪乎“人工智能教父”杰弗里·辛頓教授承認對自己參與創造這項技術感到后悔,發出警告表示人工智能導致人類滅絕的可能性在“未來三十年內為10%到20%”。
馬斯克說,按照現在的速度,人工智能的發展可能會超過全人類的智慧總和,但也不止一次在公開場合呼吁限制機器人,認為不受限制的人工智能將來成為未來人類的大患,并將研發人工智能比作"召喚惡魔"。
馬斯克還指出,人工智能比核彈更危險。
這些警告,并非危言聳聽和無稽之談。假若,我們人類真的掌控不住人工智能,那么,未來的地球,主宰者,將不再會是人類!
防患于未然,未雨綢繆,總比自以為是、不以為意、驕傲自大要好得多。
其實,我們人類在凝心聚力、爭先恐后地研發和加速人工智能時,也并未放松警惕、毫不顧忌,而也是早早行動起來了。
各國在積極制定相關法律法規。如我國,強調堅持 “科技向善”,確保安全可控是科技發展的底線要求,要確保人工智能始終在人類控制之下,防止出現機器自主殺人等情況。
多個國家也在攜手合作。
為防止人工智能失控,2025年2月10日至11日,包括法國、中國、印度、歐盟在內的多個國家和國際組織齊聚法國巴黎,簽署了《關于發展包容、可持續的人工智能造福人類與地球的聲明》,強調要促進人工智能的可及性,確保其開放、包容、透明、合乎道德、安全、可靠且值得信賴,加強國際協調治理等。
有了道德、法規的制約,人工智能才能變得更安全、可靠和信賴,才能更好更快地為我們人類服務。
這就像早些年前的克隆技術一樣,若沒有道德和制度的限制,或許今天,克隆人已經不是什么新奇的事了。
任何東西都有兩面性,科技,也概莫能外。
約束、控制和去除不利的一面,讓其最大程度地施展和發揮有利的一面,這才是我們研發AI的初衷和意圖,也才能讓我們人類飛得更高,更遠!
【我是@心花手中開,感謝你的閱讀,也希望你能點贊、評論和轉發,帶給更多的人知識、道理和能量!】
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.