劉誠/文
近期,具身智能產業發展迅猛,其關注的是如何將感知、行動和環境交互融入機器學習和人工智能的發展中,從而打造更加靈活和自主的智能體。
那么,當具身智能具有一定的身體和智力之后,從經濟和社會治理角度看,它是否構成自身人格,又能否承擔自我責任?
具身的雙重含義
具身智能指智能體(機器人或程序)通過與物理世界或模擬環境的交互來學習和應用知識的能力。相較于一般的人工智能,具身智能最顯著的區別便在于“具身”。“具身”有兩層含義。第一層含義是具有“身體”,用身體感知環境。這種智能不僅僅依賴于傳統的計算資源,還強調了身體性體驗的重要性,即智能體的身體與其所處環境之間的互動對于學習和發展復雜行為至關重要,為人工智能的未來描繪出一幅更加真實、動態且復雜的圖景。
以往,人工智能強調的數據輸入、運算過程、結果輸出。具身智能不再被動地等待數據投喂,而是憑借其身體主動感知周遭環境,自主收集數據,并借助身體的不同部位靈活作出反應。
在自然生物界,具有一定智力的生物都是通過身體來感知的,比如用耳朵聽聲音、用眼睛看物體、用鼻子聞氣味。具身智能也是在模擬身體感知的過程,它的外表不再是冷冰冰的鐵皮,而是各種密集的傳感器,從不同方面捕捉現實世界的各種信息,形成多元化的判斷,從事多任務工作。“具身”的第二層含義是具有“身形”,用不同的身體形態適應環境。換言之,具身智能不僅具有身體,還有不同的身形,且身形對其智能的學習成長及場景的落地應用具有重要價值。
具身智能的核心理念是“身體就是智能的一部分”,這意味著智能體的行為、感知能力以及學習過程都與其物理形體密切相關。
現實中,我們接觸比較多的是機器臂和人形機器人。例如,一個擁有手臂和抓握裝置的機器人需要理解如何使用這些肢體來完成特定任務,比如拾取物體或進行裝配工作。這一過程不僅涵蓋了對物體及其所處環境的深刻理解,還要求通過不斷的實際操作來精細調整和優化其動作策略。
特別指出的是,機器人的身形不一定要模仿人類,也可以模仿動物及其他生物,即仿生機器人。例如,仿生鳥機器人可以通過嘗試不同的飛行姿態,學習如何在空中更穩定、更高效地飛行;仿生蛇機器人可以通過身體的擺動和觸覺反饋,在復雜地形中靈活移動,避開障礙物。
從具身智能的發展趨勢看,人工智能已然實現了根本性的飛躍,不再局限于對人類感官的簡單放大,也不再僅僅是人類認知和行動的輔助工具,而是逐步確立起自身獨特的價值與“生命”,并從認識活動的邊緣和輔助角色,躍升至中心與主導位置,這一認識論構成了非人類中心認識論的一個重要分支。
總之,具身智能強調人工智能的智能程度和它的身體及身形存在著很強的相關性,身體不是等待加載算法的機器,其本身應該參與算法的進化。這種方法模仿了自然界生物的學習方式,強調了實踐和經驗積累的重要性。
工具與人格爭議
具身智能是一種比較高級的智能體,既能用身體感知世界、加速學習,又能通過為其設計不同身形來加快應用場景落地。毫不諱言,它是一種極好的工具,大大提高人類的工作效率,甚至可以輕松從事一些人類無法勝任抑或危及人類生命健康的工作。
但當我們討論具身智能的身體時,尤其是當看到一個個逼真的人形機器人時,我們不禁要問:他們這么像人,且這么聰明和理性,它們是否具有主體性或法律人格,能否為自身錯誤承擔責任?
對這個問題,社會各界有很大爭議。
一方面,即便具有智力和身體,人形機器人仍是機械化的機器。就像所有信息技術一樣,人工智能的特點是“簡化”和“閉合”。“簡化”是將任務或問題分解為一組需要按順序執行的操作過程,“閉合”作為“簡化”的必要補充,意味著“隔離式和黑箱式順序操作”,以確保其執行不受外部干擾。
人工智能的使用讓任務標準化和正式化,使得決策過程更像機器的運轉。特別是,在許多情況下,決策者無法充分解釋人工智能是如何產生結果的。
即使人工智能生成的結果需要人類決策跟進,一個依靠算法作為核心管理機制的組織也可能成為一個“數字牢籠”。在這種情況下,很少有人能了解AI系統是如何工作的,甚至連人工智能的開發人員都不甚了解,也不知道如何影響它。
因此,就像我們認為機器不具有人格一樣,具身智能無論再智能也難以形成人格。
另一方面,人工智能可能產生了一種非理性的理性,脫離了人類現實,若讓它獨立行事可能違背人類的世界觀和價值觀。
本質上看,人工智能及其算法試圖建立收入數據集(如性別、年齡、社交網絡等)與輸出數據集(如消費傾向、是否獲得面試資格、犯罪概率等)之間的最佳關聯,為達此目的,其會反復調試選取變量及其權重。但這些變量和權重可能未反映政策原則和法律形態,而是凌駕于政策和法律之上,或將導致權力濫用。
甚至,具身智能發現的主要是數據間的相關關系,并非現實世界的相關關系,更不是理性認知層面的因果關系,由此得出的分析和判斷可能嚴重脫離現實。比如,在是否犯罪的問題上,算法給出的最大權重變量可能是人的膚色和長相,根據膚色和長相將人劃分三六九等。
倘若讓具身智能大行其道,可能產生一種與人類世界格格不入的平行世界,導致秩序混亂。
因此,大多數人都堅持認為,具身智能體仍然只是工具,不具有人格屬性。
被問責主體依然是人
一個行為心理學的分析是:人們通常傾向于遵循默認選項,而非質疑它。具身智能是特別有吸引力的默認選項,因為它們通常以“非意識”的形式出現——帶有科學客觀性和合理性的氣質。然而,具身智能并非盡善盡美,難免出現偏差,甚至引發系統性謬誤。但問題在于,出錯時該向誰問責?
一方面,具身智能難以自主承擔責任。隨著具身智能智能水平的提高,在理想狀態下,一個負責任的算法運行,應當深刻洞察其運行所帶來的影響,審慎權衡所涉及的倫理困境,并采取對卷入其中的各方行動者負責的措施,以確保算法的運行能夠尊重他人的倫理義務與傳統。
但目前而言,正如我們難以相信機器能夠自我負責一樣,目前我們同樣無法期待具身智能實現自我負責。當具身智能犯錯時,作為懲罰,我們可以對其身體作出停用或報廢,就像對人類罪犯的坐牢或死刑。然而,這種措施可能仍然無法達到預期的懲戒效果。
作為一種工具,具身智能在使用過程中,可能會因程序正當性、歧視與平等保護、隱私和透明度、權力濫用等問題而遭受指責。例如,在美國威斯康星州訴盧米斯一案中,被告質疑COMPAS系統對其風險評分的公正性,認為依賴該系統進行判決剝奪了他受到公平審判的權利。盧米斯指出,由于COMPAS的源代碼專有且不透明,加之該系統可能對男性存在偏見,因此其風險評估的結果可能并不準確。
另一方面,人類不能因為具身智能的使用而“甩鍋”。具身智能的使用已將人類的判斷從以決策程序為核心轉移到處理異議和投訴階段。自然而然地,社會規則的重點也隨之轉向事故后的責任追究問題。
目前,社會上討論比較多的是自動駕駛(或較高級別的輔助駕駛)導致的事故問題。現行的社會制度和法律規定仍然要求人必須在旁邊(或遠程)盯著AI的自動化過程,出現緊急情況時及時替代AI,且最終發生事故時由人負責。換言之,人類不應借由AI的自動化特性來規避事故所應承擔的責任。
特別需要指出的是,一些具身智能體發生的事故是由人類惡意使用造成的,此時必然要由人來承擔后果。
具身智能使用者背后的兩面性并不總是清晰的,關懷和控制之間的兩種動機也不總是相分離的,我們應重視使用者的主動性與自發性。
比如,一些上市公司被發現通過向AI系統投喂虛假的“利好信息”,誤導AI系統給出錯誤答案,并利用這些答案誤導投資者,以此來宣傳公司業績積極,達到操縱股市的目的。實際上,AI得出的分析結果是有人故意投喂的,并不是客觀可信的。
還有人使用AI技術惡意篡改版權作品,并試圖掩蓋抄襲和盜版事實。面對這些事故,人們或許會企圖借助具身智能作為擋箭牌,以逃避責任,而這正是未來社會治理亟需關注的重點。
對行政和司法機關而言也是如此,不能逃避責任。縱觀古今,行政機關和司法機構等公共組織,不能簡單地躲在一般規則后面聲稱他們“僅僅是在執行規則”。
進入AI時代,無論數據是否易得,都不應成為免除核實數據是否真實反映實際情況責任的借口。換言之,倘若司法機構使用AI工具做出錯誤判決,則不能簡單將責任歸咎于AI系統,更不能用AI系統去辯稱那些“明顯不公正的錯誤判決”是公正的,并據此強迫各方接受這種結果。
免責聲明:本文觀點僅代表作者本人,供參考、交流,不構成任何建議。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.