作者簡介:維克托·H.蘭蒂(Victor Habib Lantyer),阿根廷薩爾瓦多大學法學院教授。楊安卓,本名楊昂,江西財經大學法學院副教授,法學博士;伍靜雯,江西財經大學數據法律研究院研究助理。
學科編輯:姜紅利、王天禹
引用示例:〔巴西〕維克托·H.蘭蒂:《幽靈的威脅:生成式人工智能幻覺及其法律規制》,楊安卓、伍靜雯譯,載《法治現代化研究》2025年第3期,第190-200頁。
推送時省略全部注釋,引用請以發表版為準
內容提要
生成式人工智能正在迅速滲透到法律領域,既提供機遇,也帶來新的挑戰。本文研究了日益增長的人工智能幻覺現象,即這些系統生成事實不正確或捏造信息的情況。本文還探討了此類錯誤的潛在法律后果,包括錯誤的案例引用和對法律的誤解,并指出需要一個強大的監管框架來降低風險,確保負責任地將生成式人工智能整合到法律實踐中,從而維護正義和公眾信任。
關鍵詞
生成式人工智能;幻覺;法律;人工智能;規制
人工智能正在迅速改變許多領域,尤其是法律領域。以ChatGPT等平臺為代表的生成式人工智能模型,越來越多地用于協助法律文件起草、法學理論研究和客戶交流互動。然而,一個嚴重的問題隨之浮現出來:人工智能的“幻覺”(Hallucination)現象。當人工智能系統生成的信息雖然看似合理,但事實不正確或完全捏造時,人工智能幻覺就會顯現。在法律情境下,這帶來了錯誤的法律解釋、虛構的法律引用或虛構的法律先例等風險。
考慮這樣一個場景:一位律師利用人工智能工具進行判例法研究,他在收到從未發生的法院判決的虛假引用后,將該判例納入他們的法律論證。或者想象一下,法官咨詢虛擬助手以澄清法律問題,卻收到了不準確的指導,隨后影響他們的判斷。這些例子顯現出法律生態系統中人工智能幻覺所固有的危險,其中信息的準確性和可靠性至為關鍵。
除了直接的法律風險外,人工智能幻覺還引發了嚴重的道德困境。過度依賴自動化系統可能會助長錯誤信息的傳播,從而破壞司法程序的完整性并削弱公眾對法律系統的信任。由于目前缺乏管理法律實踐中應用人工智能的具體法規,加劇了以上挑戰,因此必須解決人工智能故障造成的損害賠償責任問題。
本文旨在探討生成式人工智能中幻覺的法律影響,使用說明性的真實案例來強調法律職業面臨的風險和挑戰。它將進一步討論緩解這些問題所需的潛在解決方案和監管框架,確保人工智能安全且合乎道德地融入法律領域。
透徹理解人工智能幻覺現象,對于法律從業者、人工智能開發人員和政策制定者都很重要。惟有如此,方能營造一個既能利用技術優勢又不損害正義和公平的法律環境。
01
一、人工智能幻覺現象:原因和特征
Deepseek、Gemini和ChatGPT等自然語言模型(NLM)的興起,徹底改變了包括法律部門在內的各個領域,但是這些工具的日益廣泛使用也帶來了一個重大挑戰:幻覺。人工智能幻覺是指人工智能模型生成不正確、捏造或誤導性的信息,并以令人信服的方式呈現。這種現象是自然語言模型所固有的功能,需要對其原因、特征和影響進行徹底分析,尤其是在信息準確性被高度重視和要求的情境下。考慮到人工智能本質上是一個近似和概率的系統,遠非法律等領域所期望的確定性和絕對真理,致使審查需求就更加強烈。
人工智能幻覺的根源在于自然語言模型的架構和訓練過程。這些模型使用從互聯網、書籍、科學文章和其他來源提取的大量文本數據進行訓練。在訓練過程中,它們學習識別單詞和短語之間的模式和統計關聯。但是,這種學習純粹是統計性的,并不意味著對內容的語義理解。自然語言模型并不也無須“理解”單詞的含義或信息的真實性;它們僅僅根據訓練數據預測單詞序列“連貫”的概率。從這個意義上說,喬姆斯基(Chomsky)對語言的純統計方法的批評,盡管早在現代人工智能時代之前就已提出,但他指出了忽視深層句法結構和語義含義的自然語言模型的局限性,這在今天依然發人深思。
有幾個因素會導致人工智能幻覺。一個是自然語言模型傾向于推斷從訓練數據中學到的模式以生成新信息。這種外推雖然對自然語言模型的泛化能力來說必不可少,但可能會導致產生不準確或現實中不存在的信息。這種外推過程是自然語言模型設計中固有的,旨在從觀察到的數據中概括知識。但是過度概括會導致虛假的聯想,從而產生幻覺,正如黃實等人在他們關于自然語言模型生成假新聞的研究中所證明的那樣。多明戈斯(Domingos)也討論了這種過度泛化的問題,他認為搜索能夠從數據中學習任何內容的“主算法”,可能會導致自然語言模型區分能力低且容易出錯。
訓練數據的質量、多樣性和代表性,在自然語言模型的性能中也起著十分重要的作用。有偏見、不完整或過時的數據,可能會導致自然語言模型生成虛假或誤導性信息。訓練數據缺乏多樣性可能導致模型僅反映部分現實視圖,從而加劇人工智能幻覺的風險。數據偏見問題是人工智能倫理辯論的核心,奧尼爾(O’Neil)警告說,“破壞算法”的危險會延續和放大社會不平等。
另一個相關因素是自然語言模型缺乏對上下文的感知。他們沒有對現實世界的“意識”,不了解他們生成的信息的更廣泛背景。它們僅關聯訓練數據中存在的模式,而不考慮信息的真實性或相關性。這種情境感知的缺乏會導致模型使用與現實無關的信息“填補空白”。塞爾(Searle)在他著名的“中文屋”思想實驗中批評了自然語言模型在理解上下文方面的局限性,這一論證表明,系統對符號的表達無論多么復雜,都不一定意味著對意義的真正理解。
自然語言模型通常會對生成語言的流暢性和自然性進行優化,這可能導致語言的連貫性優先于事實準確性。這種優化可以產生令人信服但事實不正確的敘述。鮑曼(Bowman)認為,這種對流利度的強調會導致自然語言模型在沒有真正理解內容的情況下,復制膚淺的語言模式。
人工智能幻覺的一個顯著特征是,盡管不正確,但生成的文本對使用者來說往往是看似合理的。生成的語言的流暢性和自然性可以使用戶相信內容的真實性,即使它是虛假的或虛構的。這一特性使得人工智能幻覺在法律等領域特別危險,因為在這些領域,信息的準確性是根本。這種具有誤導性的合理性是檢測人工智能幻覺的主要挑戰之一,因為它需要對自然語言模型提供的信息進行批判性評估和獨立驗證。
法律部門依賴于精確性、先例和復雜的解釋,特別容易受到人工智能幻覺風險的影響。最近的幾個案例表明了不當使用這些工具的潛在后果。美國和巴西的律師因在法律文件中引用人工智能生成的虛構案例而受到制裁。這些事件顯示出,在將人工智能生成的信息用于法律情境之前對其進行嚴格驗證的必要性。墨爾本的一名律師在承認使用人工智能軟件在家庭法庭上生成虛假案件引文后,遭到法律機構的投訴。這一案例凸顯了人工監督和驗證人工智能生成信息的重要性,即使其來源似乎可靠—實際則未必。
減輕人工智能幻覺是一項復雜的挑戰,需要各種各樣的方法。仔細選擇和管理訓練數據,對于確保人工智能模型對主題有平衡和全面的理解尤為重要。這包括刪除有偏見、不完整或過時的數據,以及納入多樣化和有代表性的來源。然而,正如米切爾(Mitchell)所說,僅僅改進訓練數據可能不足以完全消除人工智能幻覺,他主張需要一種更基本的方法來構建人工智能模型,以確保這些模型能夠以更類似于人類的方式推理和理解世界。
用于評估自然語言模型的傳統模型,例如Perplexity和BLEU,不足以檢測人工智能幻覺。有必要開發更穩健的指標,來評估自然語言模型生成的信息的事實準確性。此外,還可以在人工智能模型中整合真值驗證機制,例如查閱外部數據庫或使用邏輯推理技術來驗證生成信息。然而,正如肖賴特(Chollet)指出的那樣,這些真相驗證機制的實施可能很復雜,并且需要大量的計算資源,他主張需要一種更高效和可擴展的方法,來評估語言模型的事實準確性。
人工監督和對人工智能生成信息的嚴格驗證,對于確保結果的準確性和可靠性具有很重要的意義,尤其是在法律等關鍵領域。尋找更透明和可解釋的人工智能模型,可以幫助確定人工智能幻覺的原因并制定緩解策略。但是正如李頓(Lipton)所指出的那樣,在人工智能中尋找可解釋性可能是一個復雜的挑戰,他指出自然語言模型的精度和可解釋性之間存在“兩難悖論”,這意味著更準確的自然語言模型往往更難解釋,反之亦然。
一個臭名昭著的例子發生在美國,參與對沃爾瑪提起訴訟的三名律師因在法律文件中引用人工智能生成的虛構案例而被罰款。聯邦法官凱利(Kelly)裁定,律師有道德義務驗證所引用案例的真實性,這表明與使用人工智能相關的訴訟風險越來越大。其中一名律師承認使用內部人工智能程序生成了虛假案件,被罰款3000美元并在涉訴案件中被解職。另外兩名律師因未能充分驗證所提交文件的準確性,而各自被處以1000美元罰款。
在巴西的弗洛里亞諾波利斯,一名律師因在上訴中使用人工智能生成的虛假判例而被罰款。這位專業人士承認使用ChatGPT來準備上訴,并證明該錯誤是對該技術的“無意使用”。盡管有正當理由,但商會認為該行為足夠嚴重,因此適用罰款并將此案提交給巴西圣卡塔琳娜州律師協會裁決。
此外,一名來自墨爾本的律師在承認使用人工智能軟件在家庭法院生成虛假案件引證后,被投訴維多利亞州法律仲裁機構,導致庭審推遲。該律師向法院提供了一份法官要求的先例清單,但她和她的同事都無法識別這些案件,因為它們是由人工智能軟件杜撰的。該律師承認在向法庭提交信息之前沒有核實信息的準確性,并提供了無條件道歉,此外還支付了庭審延期的費用。
在馬庫斯(Marcus)與戴維斯(Davis)的一項研究中,他們觀察到在高級語言模型中,人工智能不僅會產生事實缺陷,而且可以生成完全虛構的信息,例如不存在的法學理論引用或對從未發表過相關主題的作者的引用。這種現象在法律和學術情境中可能會產生巨大影響,因為這些領域需要來源的可靠性和嚴格的驗證。
另一個可能導致人工智能幻覺的因素,是自然語言模型對其生成的信息的更廣泛背景缺乏“意識”。人工智能對現實世界一無所知,只是將訓練它所依據的數據中存在的模式關聯起來。這意味著,在復雜的情境中,例如數字法律或法律規范的解釋,人工智能可以簡單地用與現實無關但在概率上更接近用戶查詢的信息來“填補空白”。當自然語言模型被詢問非常具體或高度復雜的主題時,這種缺陷會更加明顯。
這些案例表明,在法律領域使用人工智能工具時需要采取批判性和謹慎的方法,凸顯了人工監督和對所生成信息進行嚴格驗證的重要性。
02
二、人工智能幻覺的法律影響:責任和錯誤風險
盡管生成式人工智能在法律領域的出現前景廣闊,但也產生了對其“幻覺”引起的錯誤的法律責任歸屬等復雜問題。傳統上,技術系統故障的責任落在開發人員或制造商身上。然而,生成式人工智能固有的自主性挑戰了這一前提,因為它們的響應可以在沒有直接人工干預的情況下生成,這引發了關于因不正確或誤導性信息而產生的損害賠償民事責任的辯論。
在巴西,《通用數據保護法》(LGPD)和消費者保護標準建立了一個框架,允許對技術開發人員和使用它的服務提供商進行問責。在許多情況下,責任可以直接歸咎于提供人工智能模型的平臺,尤其是當人工智能幻覺導致第三方受損時。盡管判例仍在發展中,但一些法院可能會采用類似于其他技術產品的推理方式,其中系統故障被認為是服務提供商的失敗,因為服務提供商必須保證所提供服務的質量和準確性。
然而,這種觀點并未獲得普遍認可。阿伯特(Abbott)和喬普拉(Chopra)等人認為,人工智能的自主性挑戰了傳統的責任模式,提議創建新的法律類別來處理這些系統所實施的行為。在這些學者看來,簡單地應用現有的民事責任規則,可能不足以確保正義和對自主人工智能造成的損害進行賠償。因此他們主張,對人工智能的法律人格以及為其分配某些權利和義務的可能性,進行更深入的辯論。
考慮到確定人工智能幻覺確切原因的難度,問題的復雜性還會加劇。生成式人工智能從龐大的數據集中學習,很難追蹤特定錯誤的來源。這使得建立人工智能行為與其造成的損害之間的因果關系變得復雜,從而難以追究開發人員或用戶的責任。此外,自然語言模型的概率性使得錯誤的發生不可避免,這就提出了一個問題,即這些系統應該要求什么級別的精確度。
在索萊曼(Solaiman)等學者看來,解決方案可能涉及采用責任共擔模型,其中人工智能的開發人員和用戶都應對其故障造成的損害負責。開發人員應負責確保系統的安全性和準確性,而用戶應負責以合乎道德和負責任的方式使用人工智能,驗證生成信息并采取必要的預防措施以避免損壞。
在需要專業知識和專業判斷的職業中,例如醫學和法律,最終決定的責任始終歸于專業人士。人工智能是一種輔助工具,不能替代臨床診斷或法律推理。因此,如果醫生使用人工智能生成的幻覺信息并對患者造成傷害,那么責任無疑是醫生的,因為醫生沒有驗證信息而疏忽大意,并作出了不適當的決定。這同樣適用于使用人工智能生成的虛假信息的律師:責任在于律師,因為他沒有履行勤勉義務,并對客戶造成了損害。
2021年,紐約的癌癥醫院開始使用基于人工智能的虛擬助手,以協助醫生診斷和治療患者。該系統由機器學習算法提供支持,旨在分析臨床數據、患者病史和醫療信息,以提供個性化的治療建議。問題在于,該系統存在某些缺陷。在特定情況下,虛擬助手生成了不正確或不適當的治療建議,如果沒有進行適當的醫療評估,可能會對患者造成重大傷害。例如,系統建議的藥物劑量不正確,推薦的療法不適合患者的臨床情況,在某些情況下甚至遺漏了有關可能副作用的重要信息。
虛擬助手的失敗引發了許多關于在醫療保健中使用人工智能的法律和道德責任的討論。盡管癌癥醫院為自己辯護,辯稱該系統只是一個支持工具,治療的最終決定權在于醫生,但該系統的失敗使人們對技術的信心受到質疑,并引發了對患者安全的擔憂。
盡管該案例可能會引發關于開發該系統的公司責任的討論,但患者診斷和治療的主要責任仍然由醫生承擔,醫生必須批判性地評估人工智能提供的信息,并根據自己的知識和經驗做出最終決定。最近的一些案例,例如美國律師因引用人工智能生成的不存在的判例而被罰款,表明法院不容忍使用未經證實的信息,即使來源是一種先進的技術工具。
從這個意義上說,關于人工智能幻覺案件法律責任的討論,必須考慮平衡技術創新與保護公民權利的必要性。創建一個明確而全面的監管框架,定義開發者、用戶和人工智能平臺的權利和義務,對于確保在不影響安全和正義的情況下以合乎道德和負責任的方式使用這些技術顯得至為迫切。
03
三、人工智能幻覺的真實案例:全球示例及其后果
人工智能幻覺遠非理論上的異常,而是表現在具體事件中,引發了重大的、在某些情況下令人擔憂的后果。除了已經提到的醫療領域的案例外,其他幾個領域也受到了人工智能系統傳播的虛假信息的負面影響。
影響力最大的案例之一,涉及在學術研究中使用GPT3。克蘭茨(Cranz)的研究指出,人工智能模型錯誤地引用了一項不存在的研究。這種情況引發了一場關于研究人員對人工智能工具信心水平的重大辯論,這些工具用于書目審查,特別是對學術來源的引用。信息的準確性和完整性是學術情境中的基本要素,不恰當地使用這些工具會導致錯誤信息的傳播和對研究可信度的侵蝕。
另一起相關案件發生在2020年,某個法律咨詢平臺的人工智能根據一組誤導性信息提出法律意見,影響了相關司法程序的進行。該平臺后來被起訴,要求對客戶進行損害賠償,這引發了人們對人工智能服務提供商在面對此類失敗時的責任的討論。此外,值得一提的是威爾·海文(Will Heaven)報道的案例,在這一案例中,Meta的聊天機器人BlenderBot3錯誤地表示唐納德·特朗普仍然擔任美國總統,盡管當時喬·拜登早已就職。盡管這似乎是一個微不足道的錯誤,但這種類型的錯誤信息可能會對公眾關于民主制度的看法和信心產生重大影響。
在美國,當一名律師因提交包含ChatGPT偽造的案例引文的司法文件而受到處罰時,情況達到了令人震驚的程度。該律師聲稱不知道這些信息的虛假性,但是,法院確定他有責任在將消息來源提交法庭之前,核實消息來源的真實性。這一事件對法律專業人士發出了強烈的警告,即在沒有盡職調查的情況下盲目信任人工智能工具所具有的風險。
在隨后的一起案件中,同樣在美國,兩名律師因使用ChatGPT進行法律研究而被罰款5000美元。負責此案的法官表示,律師們通過提交人工智能工具生成的虛假司法文件,“放棄了他們的責任”。
在新聞領域,人們已經觀察到自然語言模型可以生成包含事實不正確或扭曲信息的文章。奧尼爾強調,雖然人工智能可以協助制作新聞內容,但人工監督和嚴格驗證,對于確保所傳播新聞的準確性和可信度是必不可少的。
在澳大利亞,一名律師承認他使用了生成案例引用的人工智能程序,之后一家法院發布了司法程序中使用生成式人工智能的警告。法院強調,必須謹慎并嚴格驗證人工智能生成信息,否則將會產生損害司法系統完整性的風險。
圖爾坎(Turcan)等人的研究表明,當被要求提供有關歷史事件的信息時,自然語言模型通常會虛構細節或將事件歸因于不存在的來源。作者強調了開發更有效方法來檢測和糾正這些幻覺的重要性,以避免傳播有關過去的虛假信息。
這些事件強化了這樣一個事實:在法律、學術和新聞等行業,信息的準確性和完整性是必不可少的,人工智能的失敗不僅可能導致不便,還有可能帶來重大損失。這些例子凸顯了對人工智能技術的開發和使用進行更明確監管的迫切需要。在巴西,最近提出的建立人工智能監管框架的提案(PL21/2020)旨在為包括法律和衛生在內的各部門使用人工智能建立透明度和責任標準。該提案規定人工智能系統是可審計的,且開發人員應確保提供的答案是可驗證和可糾正的。然而,這些規定的有效性將取決于其有效實施和法院對處理這些新技術問題的需求。
04
四、人工智能幻覺的法律規制:利害攸關的是什么
對人工智能幻覺的法律監管,是一項全球性挑戰,對基本權利、技術創新和法律確定性都會產生影響。雖然不同的國家和經濟集團采取了不同的戰略,來應對這些風險,但缺乏國際協調暴露了關鍵不足,尤其是在跨國情況下,這種情形將更為嚴重。在巴西,《通用數據保護法》(LGPD)確立了透明度和準確性等原則(第6條第VI款),但并未直接解決人工智能幻覺的責任問題,從而為分散的司法解釋留下了空間。這種模糊性反映了更廣泛的緊張關系:在算法不確定性的情況下,如何平衡技術加速與權利保護?
在美國,以“負責任的創新”原則為指導,靈活的監管模式盛行。美國《通信禮儀法》(1996)第230條授予數字平臺對第三方生成的內容的豁免權,包括在某些情況下的人工智能故障。OpenAI和谷歌等公司認為,人工智能幻覺是統計學習系統的“固有風險”,它們為“安全港”的應用辯護,以避免過度責任。在最近的案例,例如Doe v. ChatGPT中,一名用戶在模型生成有關其犯罪記錄的虛假信息后起訴OpenAI誹謗,揭示了該模型的不足。法院質疑豁免權是否適用于因未減輕的系統錯誤造成的損害,敦促平臺進行監管審查。
歐盟《人工智能法案》(2024)采取了更具干預性的立場。該法案將生成式系統(例如GPT4)在關鍵領域(健康、司法、教育)的應用歸類為“高風險”,需要事先的合格評定、算法透明度審查和偏差校正。平臺必須確保訓練數據的準確性,并實施“上市后監控系統”來檢測人工智能幻覺。在系統失效的情況下,責任主要落在開發人員身上,這是基于他們可以控制技術生命周期的邏輯。這種歐盟模式與北美模式形成鮮明對比,后者優先考慮預防而不是商業靈活性。
與歐盟不同,中國將嚴格監管與創新激勵相結合。中國國家互聯網信息辦公室發布的《生成式人工智能服務暫行辦法》(2023),要求平臺確保生成內容的“真實性和準確性”,并有義務過濾與“社會主義核心價值觀”相抵觸的幻覺。百度和阿里巴巴等平臺必須在政府系統中注冊人工智能模型,并接受技術審查。盡管在國家控制方面有效,但評論者指出,該辦法將政治穩定置于技術問責之上,忽視了深度學習系統固有的不透明性等挑戰。
新加坡和英國等國家則遵循另一種方式,側重于發布不具約束力的指導方針和行業自我監管。新加坡的人工智能模型治理框架(2020)建議平臺記錄生成模型的局限性并告知用戶人工智能幻覺的風險,但不對平臺實施制裁。在英國,促進創新的人工智能監管政策文件(2023)拒絕創建新的監管機構,認為衛生和金融等部門會調整現有標準以應對人工智能失敗。然而,這種方法因將預防責任轉移到受害者而受到批評,尤其是在不對稱的權力情境中。
全球示例證明了常見的困境。首先,在法律上定義“人工智能幻覺”的困難:工程師將其視為不可避免的技術錯誤,而法學家將其解釋為產品或服務的失敗。其次,責任分散。即使是主要針對開發人員的歐盟,根據“最后一英里”原則,專業用戶(如醫生或法官)也可能對未經驗證的人工智能輸出物負責。第三,道德與競爭力之間的緊張關系。嚴格的法規,如《美國公民意識法》,可能會促使投資轉移到更寬松的司法管轄區,從而加劇全球不平等。
在巴西,盡管數據保護法和互聯網民事框架(第12.965/2014號)為精神或物質損害訴訟提供了依據,但由于缺乏具體的人工智能立法,關鍵問題仍懸而未決。例如,通過自動診斷系統誘發醫療錯誤的人工智能幻覺—如圣保羅柯尼卡斯醫院(2023)報告的病例中發生的那樣—可能會使開發商承擔《消費者保護法》(第12條)的客觀責任,或者需要證明具體疏忽。塔圖賽(Tartuce)等法學家為有缺陷的產品進行了類比,而其他人則認為技術復雜性需要行業標準。
國際經驗表明,混合解決方案可以緩解這些僵局。在澳大利亞,人工智能倫理框架(2022)將自愿原則與關鍵領域(如社會福利)的法律義務相結合,例如要求在金融服務中使用人工智能應遵循自愿原則(ASIC)。在加拿大,受歐洲的啟發,C27項目(2023)提議對人工智能系統的嚴重故障處以最高5%的全球收入罰款。這些解決方案表明,有效的監管既需要強制性機制,也需要與技術利益相關者的對話。
綜上所述,對人工智能幻覺的監管不僅僅是一場法律辯論,而是社會如何應對技術不可預測性的反映。雖然歐盟優先考慮預防措施,而美國的監管措施更具靈活性,但像巴西這樣的發展中國家面臨著額外的挑戰,即確保公平獲得技術,同時又不復制全球不對稱。構建能夠契合技術發展的自適應框架,似乎是最可行的道路—盡管唯一不變的是,變化的領域沒有明確的答案。
05
五、余論
在生成式人工智能全球治理中,對人工智能幻覺的法律規制逐漸超越了單純的技術充分性考量,而構成了一種道德和社會要求,因為它影響了法律實踐—引用捏造的判例可能會導致制裁—以及在醫學環境中使用算法,會對治療的完整性帶來潛在風險。這種監管落差威脅到基本權利,損害了專業策略的完整性,并動搖了公眾信心,這使得制定一個強大且適應性強的監管框架十分必要,尤其是在像巴西這樣以監管缺陷和依賴外國技術為特征的國家。
因此,建議制定一項巴西人工智能法規,以克服巴西個人數據保護法和消費者保護法的限制,并以與歐盟模式相同的方式,按風險等級對人工智能系統進行分類監管。從這個角度來看,關鍵領域應用—特別是在衛生、司法和公共管理領域—需要專門機構的事先認證,這可能要求加強巴西國家數據保護局(ANPD),或創建一個特定的機構。此外,該法規必須對開發人員施加客觀責任,將人工智能幻覺等同于產品缺陷,并確定實施嚴格的技術措施,例如數據集審查和驗證測試,以及設立部門賠償基金,以便在原因不明的情況下對受害者進行賠償。
但是,責任不能完全歸于開發人員。當務之急是,系統地確立專業用戶—律師、法官、醫生—驗證人工智能生成物的義務,擴大法律體系中已經存在的勤勉義務。在這種情況下,巴西律師協會(OAB)等監管機構應制定道德準則并促進算法素養培訓計劃,以確保專業用戶批判性和知情地使用這些技術。
人工智能系統的透明度和可靠性,是監管有效性的基本支柱。因此,詳細說明所用模型的公共記錄、披露準確性指標以及執行由巴西國家計量局等實體進行的獨立技術審查,是鞏固社會信任的重要措施。值得注意的是,2025年2月,巴西國家司法委員會(CNJ)第332/2020號決議進行了更新,旨在加強對法院合乎道德地使用人工智能的控制和審查機制,明確禁止在決策過程中使用未經審查的人工智能系統,并提高監管所需的透明度標準。
最后,教育和社會參與是確保新監管框架有效性不可或缺的要素。在本科課程中納入涉及道德和數字法律的學科內容,促進針對社會最弱勢群體的信息宣傳活動,以及促進公私伙伴關系以開發合乎道德的人工智能,這些戰略將共同加強巴西面對技術創新帶來的挑戰的適應能力。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.