人工智能聊天機器人的日益普及引發了關于其作為朋友、伙伴還是工作助手的社會角色的爭論。
而且它們也變得越來越復雜。角色扮演平臺Character AI承諾通過與機器人角色的對話,實現個性化和創造性的互動。但也有一些負面結果:目前,Character.ai 正面臨一場訴訟,涉及其聊天機器人在一名青少年自殺事件中所扮演的角色。
其他公司,例如 ChatGPT 和Google Gemini,則承諾通過 genAI 提高工作效率。但下一步將如何發展呢?在這種狂熱的氛圍中,發明家們正在開發更先進的人工智能助手,這些助手將擁有更強的社交直覺,能夠執行更復雜的任務。
生成式人工智能的應用持續增長。 (Shutterstock)未來沖擊
兩年前OpenAI的ChatGPT所引發的震動,不僅是因為采用率的飆升和對就業的威脅,更是因為它針對創意寫作和教育的文化打擊。
我的研究探索了圍繞人工智能的炒作如何影響一些人對其做出專業判斷的能力。這種影響源于人們對人類文明脆弱性的焦慮,滋生了未來“超級智能”可能超越人類控制的觀念。
預計 2032 年 genAI 的收入將達到1.3 萬億美元,這一財務預測將進一步引發炒作。
主流媒體的報道也夸大了人工智能的創造力,并將該技術描述為對人類文明的威脅。
拉響警報
世界各地的科學家都對人工智能的實施和應用表示了緊迫性。
諾貝爾獎得主、人工智能先驅杰弗里·辛頓(Geoffrey Hinton)因對人工智能發展存在分歧而辭去谷歌職務,并因人工智能的進步而后悔在谷歌的工作。然而,未來的威脅卻更加個人化。
2015 年 3 月,人工智能先驅科學家杰弗里·辛頓 (Geoffrey Hinton) 在加利福尼亞州山景城谷歌總部留影。
人工智能正在經歷一場轉型,轉向以自我為中心、個性化的人工智能工具,這些工具的功能遠遠超出了現有能力,能夠重塑已成為商品的自我。人工智能技術重塑了我們對自身的認知:我們的人格、思想和情感。
下一波人工智能助手,即人工智能代理的一種,不僅會深入地了解用戶,還能代表用戶采取行動,甚至模擬用戶。這一理念遠比那些僅僅充當文字寫作、視頻制作或軟件編程助手的人工智能更具吸引力。
這些個性化的人工智能代理將能夠確定意圖并開展工作。
谷歌 DeepMind 高級研究員 Iason Gabriel 和一個大型研究團隊撰寫了一篇關于高級人工智能助手倫理發展的文章。他們的研究敲響了警鐘:人工智能助手可以“影響用戶的信仰和行為”,包括通過“欺騙、脅迫和剝削”的方式。
人工智能仍然具有技術烏托邦的一面。加布里埃爾在一期播客中沉思道:“我們很多人都希望能擁有一種能夠替我們處理很多生活事務的技術”,并稱之為“思想伙伴”。
文化混亂
人工智能顛覆的最新進展將干擾我們對自己的理解,因此,我們需要預測技術文化的影響。
在網上,人們在 X、Instagram 或領英等平臺上展現超現實且精心策劃的自我形象。用戶與蘋果 Siri或亞馬遜 Alexa等個人數字助理的互動方式也讓我們更加社交化,從而重新構想個人生活。這些“生活敘事”實踐在開發下一波高級助理方面發揮著關鍵作用。
量化自我運動是指用戶通過各種應用程序、可穿戴技術和社交媒體平臺追蹤自己的生活。人工智能助手的新發展可能會利用這些工具進行生物黑客攻擊和自我提升,然而,這些新興工具也引發了人們對個人數據處理的擔憂。人工智能工具存在身份盜竊、性別和種族歧視以及各種數字鴻溝的風險。
不僅僅是援助
人機交互助手可以與其他領域融合。醫療領域的數字孿生技術應用了用戶的生物數據,能夠創建人體生理狀態的虛擬表征,并有助于預測未來的發展。這也可能導致人們過度依賴人工智能助手獲取醫療信息,而缺乏醫療專業人員的人工監督。
其他先進的人工智能助手會“記住”人們的過去,并推斷其意圖或為未來的生活目標提出建議。已有研究發現,記憶功能自動化會造成嚴重危害,例如對親密伴侶暴力的受害者。
免責聲明:
本文所發布的內容和圖片旨在傳播行業信息,版權歸原作者所有,非商業用途。 如有侵權,請與我們聯系。 所有信息僅供參考和分享,不構成任何投資建議。投資者應基于自身判斷和謹慎評估做出決策。 投資有風險,入市需謹慎。
關注我們,一起探索AWM!
2025-05-28
2025-05-26
2025-05-24
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.