神經(jīng)技術正以超乎想象的速度從理論構想走進現(xiàn)實生活。加強神經(jīng)技術倫理領域的國際合作,推動神經(jīng)技術負責任創(chuàng)新,讓其更好增進人類福祉,成為國際學術界的共識。聯(lián)合國教科文組織5月11—17日在法國巴黎總部召開神經(jīng)技術倫理建議書特別委員會政府間會議,各成員國代表通過公開辯論的方式,對《神經(jīng)技術倫理建議書草案》(以下簡稱《草案》)進行逐條討論,并提出修改意見,以期在2025年底第43屆聯(lián)合國教科文組織大會上通過一個全球神經(jīng)技術倫理框架。這次國際會議對完善國際倫理治理原則影響深遠。
作為中國代表團的成員之一,中國社會科學院哲學研究所研究員李亞明受中國社會科學院委派,深度參與了會議各環(huán)節(jié)。她與各國代表開展深入交流與對話,探討科技倫理治理,共同推進了《草案》的修訂。
共筑神經(jīng)技術倫理防線
《中國社會科學報》:不同于國家立法,聯(lián)合國教科文組織的這項《草案》對于推進神經(jīng)技術倫理國際合作的重要意義是什么?
李亞明:加強神經(jīng)技術倫理領域的國際合作,推動神經(jīng)技術負責任創(chuàng)新,為全球神經(jīng)技術研發(fā)與治理提供共同的指導規(guī)范,是應對全球化挑戰(zhàn)的必然選擇,也是踐行全人類共同價值的戰(zhàn)略要求。
一方面,當代技術治理需要全球?qū)<邑暙I智慧。人工智能、基因技術和神經(jīng)技術等當代技術的應用后果具有高度不確定性,各種前沿技術的融合又加劇了不確定性。如增強現(xiàn)實技術和神經(jīng)技術的結合,將模糊公共領域和私人領域的邊界;人工智能用于優(yōu)化基因編輯過程可能成為進化的新驅(qū)動力。聯(lián)合國教科文組織總干事奧德蕾·阿祖萊認為,伴隨人工智能、機器人、大數(shù)據(jù)分析和物聯(lián)網(wǎng)等新興技術的進步,全球?qū)<翼氊暙I經(jīng)驗和智慧,協(xié)同開展風險評估。
另一方面,倫理原則建構中的全球合作是維護各國共同利益的必要前提。資源共享和技術交流是神經(jīng)技術發(fā)展的基礎,更是各國平等受益于技術發(fā)展的重要條件。當前,神經(jīng)技術產(chǎn)品的產(chǎn)業(yè)鏈全球化分工已愈發(fā)明顯,神經(jīng)技術的數(shù)據(jù)來源和應用場景均具有多元化特征,各國間差異化的治理原則難以有效達成“負責任創(chuàng)新”的國際治理目標,迫切需要建立具有普遍性的國際倫理原則,才能協(xié)同推進神經(jīng)技術倫理領域的全球治理合作。
要以全人類共同價值引領人類文明進步,在全球技術治理框架的建構中加強相互理解和互信。此次政府間會議對《草案》進行了充分討論,為完善國際倫理治理原則提供了權威性參照標準,為神經(jīng)技術研究和應用的跨境協(xié)作提供了重要保障,將成為神經(jīng)技術倫理領域首個凝聚全球共識的新倫理準則,意義重大。
共同塑造倫理價值
《中國社會科學報》:神經(jīng)技術發(fā)展能帶來健康福祉,也會產(chǎn)生重大倫理風險嗎?
李亞明:神經(jīng)技術是能夠直接與大腦交互,實現(xiàn)訪問、監(jiān)測、分析或調(diào)節(jié)神經(jīng)系統(tǒng)的設備、系統(tǒng)或程序。在科學研究和疾病治療等領域,其發(fā)展和應用將實現(xiàn)諸多全新目標,在教育、工作場所管理以及娛樂市場等領域也將發(fā)揮重要作用。神經(jīng)技術研究和應用的快速發(fā)展,深度影響著人們的自我認知,通過設備、環(huán)境以及與他人交互方式的改變,對人類社會的生產(chǎn)生活方式、價值觀和道德觀念產(chǎn)生實質(zhì)性影響。因此,在高度關注神經(jīng)技術進步對形塑未來潛力的同時,也要審慎考察神經(jīng)技術可能帶來的倫理、法律、社會和文化問題。
首先,神經(jīng)技術為窺探隱私提供了前所未有的便利。例如,借助分析腦電信號可能還原簡單詞匯等部分思維內(nèi)容;通過功能性磁共振成像技術可重建人腦呈現(xiàn)的圖片。此外,神經(jīng)技術對神經(jīng)數(shù)據(jù)的收集和使用,可能在個人不知情的條件下發(fā)生,未獲得知情同意;神經(jīng)數(shù)據(jù)具有很強的個體特異性,導致數(shù)據(jù)匿名化困難。相比其他隱私信息,神經(jīng)隱私數(shù)據(jù)濫用的后果更嚴重,既可能使個體遭受歧視、利用或控制,也可能為國家間的經(jīng)濟剝削等行為提供新的方式。
其次,神經(jīng)技術的發(fā)展與調(diào)控會傾向于建立一種具有單一、標準化的神經(jīng)特征或功能的評估體系,以某種特定的大腦活動模式或神經(jīng)指標作為衡量認知能力、心理健康的唯一標準,導致具有獨特神經(jīng)特征的個體或群體受到不公正對待。如利用神經(jīng)技術獲取客戶的神經(jīng)數(shù)據(jù)進行風險評估,將腦部掃描結果與犯罪風險掛鉤等。
最后,神經(jīng)技術應用于治療可能削弱人的自主性,導致道德責任的歸屬困難。例如,使用者無法確定其感受到的欲望、沖動或偏好究竟來自自身,還是設備作用的結果;他人借助神經(jīng)技術可能多維干預大腦活動,對人的自我控制形成挑戰(zhàn)。第三方惡意行為者可能瓦解腦機接口用戶自主控制應用程序的能力,甚至直接操縱用戶的思想和行為。
上述技術風險已超出現(xiàn)有道德原則和法律規(guī)制的適用范圍,對公共安全、基本價值觀念乃至人類本質(zhì)均構成了現(xiàn)實挑戰(zhàn)。基于此,確立適用于神經(jīng)技術的全球倫理治理原則已迫在眉睫。
《中國社會科學報》:神經(jīng)技術倫理研究涉及風險防范,也涉及價值塑造。在當代科技倫理治理中,最為基礎性的價值是什么?
李亞明:圍繞全球科技倫理治理,建立有效、多元、包容的倫理原則,需要首先確立倫理原則的價值基礎。從20世紀中期開始,人的尊嚴概念進入了《聯(lián)合國憲章》《世界人權宣言》等一系列國際公約和政治宣言,被廣泛地用于哲學、法律以及政治實踐文本的論述當中,標志著尊重人的尊嚴成為現(xiàn)代文明的核心特征,也標志著人的尊嚴成為國際學界一項前沿性的研究議題。
當代科學革命演進進一步激發(fā)了人的尊嚴應得到尊重的現(xiàn)實要求。在科技倫理研究中,人的尊嚴更加頻繁地應用于各種思想觀點的論證,成為踐行人類共同價值、保護人類不受科技發(fā)展傷害的終極理論依據(jù)。在聯(lián)合國教科文組織2021年通過的《人工智能倫理問題建議書》中,人的尊嚴被確立為“人權和基本自由這一普遍、不可分割、不可剝奪、相互依存又彼此相關的體系的基礎”。在《草案》第一稿中,人的尊嚴同樣是道德原則的價值基礎,用以規(guī)范神經(jīng)技術的發(fā)展價值。
對于保護個體權利,人權框架無疑發(fā)揮了重要作用,但我們應明確人的尊嚴是人權的基礎。《世界人權宣言》第22、23條以及《公民權利和政治權利國際公約》序言中都明確表述了這一立場。清晰界定尊嚴的內(nèi)涵并闡釋其與人權的關系,是當代倫理學研究的重要議題,不僅能夠為完善國際倫理原則提供重要思想資源,而且有助于應對當代人權框架遭遇的困境。隨著技術不斷進步,以新的權利應對新的倫理問題逐漸成為一種傾向。于是,權利框架正在無限擴張。如果在這一擴張背后沒有任何邏輯依據(jù),那么整個人權框架都會受到損害。人的尊嚴能夠為特定情境中具有不同道德權重的權利提供權衡的標準。
人的尊嚴要求對人類本質(zhì)特征提供保護。行動性通常被認為是我們的標志性特征和道德地位的來源。當前,人類決策越來越依賴人工智能的數(shù)據(jù)分析。腦機接口等神經(jīng)技術將顯著影響個體的倫理決策,使判斷和行為抉擇在人與技術的互動中動態(tài)生成。隨著人機協(xié)同行動性、算法代理行動性等新概念的提出,技術的塑造作用已成為影響人類自我認知和自我建構的重要因素。在人們同技術共生的背景下,人的行動性體現(xiàn)為人與設備相互對抗又協(xié)同合作的過程。尊重人的內(nèi)在價值,顯然并非簡單地排除設備的影響,我們要充分理解同技術共生的行動性實現(xiàn)的內(nèi)在機制,同時思考應如何在這種共生情境中防止人類淪為技術的部件。人與技術共生的最終目標,應是利用共生關系提供全新的復雜情景,進一步促進人的發(fā)展。
此外,擁有尊嚴的個體不僅擁有權利,還應當受到道德評價保護,能夠擔負道德義務。技術進步把每個陌生人聯(lián)結在一起,個體選擇可能對所有人造成影響,人類個體間構成了越發(fā)緊密的命運共同體。每個人都是科技進步的受益者,也都是風險的承擔者。因此,人類個體都有義務維護共同體的福祉,這就意味著很多個體權利需要同其他權利進行權衡。
完善倫理治理原則
《中國社會科學報》:當前,神經(jīng)技術的倫理治理呈現(xiàn)多維場景化,在新形勢下,您建議如何應對神經(jīng)技術的倫理風險?
李亞明:積極應對神經(jīng)技術的倫理風險,必須明確相關倫理原則在神經(jīng)技術研發(fā)和應用中的具體要求,同時需要結合新的現(xiàn)實場景對已有原則做進一步闡釋和完善。
一方面,我們應為遵循已有倫理原則提供新的行動條件。“知情同意”是實現(xiàn)尊重自主的重要手段。然而,當代神經(jīng)技術的廣泛應用與多維場景條件相關,導致用戶在緊急、危險等條件下實現(xiàn)知情同意存在新困難,需要采取新的措施保證個體做出自由和知情的決定。當然,為了保障神經(jīng)技術用戶充分實現(xiàn)知情權益,采取特殊教育手段啟蒙大眾已成為新議題。同樣,知情同意要求在任何時候都保有退出使用技術的權利。而對于神經(jīng)科學研究中的“自主退出”權利,特別是切實保障植入腦機接口的個體無條件退出技術應用,只有在相關技術成熟的前提下才能得以實現(xiàn)。因此,“反向控制”作為一類重要的技術保證,應當同神經(jīng)治療技術同步發(fā)展。
當代技術的發(fā)展依賴于數(shù)據(jù)。盡管既往的文化歧視和種族偏見已成為歷史數(shù)據(jù),但是技術的新發(fā)展可能擴大原有的偏見和不公正,需要加強新技術治理原則研究破解新難題。神經(jīng)技術的發(fā)展應包容差異性,以促進公正。為此,要確保神經(jīng)技術研究使用的神經(jīng)數(shù)據(jù)來自各個群體,并在技術發(fā)展的整個生命周期中促進公眾和社區(qū)的有效參與,尤其是包容不同的認知和判斷,促進神經(jīng)技術領域的創(chuàng)新,提升社會凝聚力。
另一方面,我們要反思并完善已有的倫理原則。面對神經(jīng)技術帶來的新倫理情境,已有的倫理原則在很大程度上失去了解釋效力,難以應對新問題,如我們常常無法通過援引“保護自主”這一既有核心原則準確做出相關倫理判斷。神經(jīng)技術可作用于無意識層面,表面的“知情同意”可能是受到第三方操縱和利用的結果,這樣,神經(jīng)技術通過剝奪有價值的選擇造成了“不自主”同意,或者通過阻礙自我認知導致不自主的權利表達。因此,我們需要對“尊重自主”這一核心原則做出新的闡釋。
此外,傳統(tǒng)自主概念也可能與公正形成沖突。作為理性選擇行動方案的自主原則,意在保障行動者自身利益的最大化,并不一定施加對他人或社會的道德義務,其本身并不要求行動者考慮或避免社會不平等現(xiàn)象,甚至允許一定程度的不平等作為自主性的必要條件存在。因此,將自主原則簡化為“自由的選擇”,必然導致資源向優(yōu)勢群體傾斜。可見,個體權利和集體福祉之間的辯證關系,亟須結合科技發(fā)展帶來的現(xiàn)實情境加以進一步闡釋,這已然成為新的議題。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.