編者按:
為落實中共中央宣傳部 教育部 科技部印發《關于推動學術期刊繁榮發展的意見》精神,順應媒體融合發展趨勢,積極適應移動化、智能化發展方向,《中國法學》推出網絡優先出版等新型出版模式。目前,已于“中國知網”上線2024年第5期《中國法學》知網首發文章,并于微信公眾平臺同步推出,敬請關注!
大數據預測警務的運作機理、風險與法律規制
陳永生
北京大學法學院教授
本文發表于《中國法學》2024年第5期,因篇幅限制,注釋省略。作者身份信息為發文時信息。
內容提要
大數據預測警務的出現使警方偵查破案、預防和打擊犯罪的能力獲得突破性提升,但同時也會產生一些風險,須對其予以規制。域外預測警務已經過1.0、2.0、3.0三個階段,預測能力不斷提升,運作機理逐步優化。大數據預測警務的發展面臨雙重風險:一是數據的準確性、完整性和新鮮性難以保證;二是算法的錯誤、歧視難以避免和糾正。應當從三個方面對大數據預測警務進行規范:一是規范數據采集和處理的程序,確保數據的質量;二是建立算法審核機制,對算法的準確性和風險進行監督和評估;三是規制預測警務系統的設置與使用,確保對公民權利的保障。
關鍵詞
大數據 預測警務 算法 法律規制
目 次
一、問題的提出
二、大數據預測警務的運作機理
三、大數據預測警務存在的風險
四、大數據預測警務的法律規制
一、問題的提出
隨著信息、網絡技術的迅猛發展,大數據、人工智能越來越廣泛地應用于各個行業。刑事訴訟處于國家與犯罪作斗爭的最前沿,刑事偵查更應該充分利用科技發展帶來的技術紅利,提高偵查人員偵查破案、調查收集證據的能力。以美國為代表的域外國家大都重視利用大數據、人工智能的最新成果提高警方偵查和控制犯罪的能力。美國自20世紀末就開始使用犯罪繪圖(Crime Mapping)和地理信息系統(Geographic Information System)來測繪和分析犯罪信息的空間分布。執法機構可以使用犯罪地圖通知犯罪信息,作出資源分配決定,進行犯罪評估分析,甚至進行犯罪預測,以及對正在進行的系列犯罪進行地理畫像(geographic profiling)。2019年,荷蘭在全國范圍內推廣一項預測警務系統——“犯罪預測系統”(Crime Anticipation System),該系統可以根據一張犯罪“熱度地圖”(heat map)預測出不同區域(每個區域的面積為125米×125米)未來兩周內的犯罪風險值。荷蘭也因此成為世界上第一個在全國范圍內部署預測警務系統的國家。
近年來,我國也開始注重利用大數據、人工智能提高預防和打擊犯罪的能力。2019年10月31日,黨的十九屆四中全會通過《中共中央關于堅持和完善中國特色社會主義制度 推進國家治理體系和治理能力現代化若干重大問題的決定》,明確要求“提高預測預警預防各類風險能力,增強社會治安防控的整體性、協同性、精準性”。同年,公安部成立了情報指揮中心,承擔情報分析、研判預警、指揮調度等職責,并下發了《情指勤輿一體化實戰平臺建設任務書》,這標志著預測警務正式成為我國公安機關警務建設的重要內容。
然而,從總體上看,我國公安機關對大數據的運用主要側重于已然之罪,即利用大數據查找已經發生的犯罪的實施者,如利用大數據視頻技術偵查犯罪、利用人臉圖像數據庫抓捕犯罪嫌疑人等。而對于未然之罪的預測和防范,也即預測警務的關注嚴重不足,對作為預測警務制度基石的數據收集與管理、算法設計與審核等問題都缺乏必要的頂層設計。學界也一直沒有將預測警務作為重要的研究課題。筆者于2024年6月19日在中國知網上對標題中包含“預測警務”的論文進行檢索,一共只能搜索到19篇論文。這些論文基本上都是公安院?;蚬蚕到y的學者、專業人士寫作的,發表在公安類雜志上,主要是介紹和闡述預測警務的概念、在域外主要國家的應用情況、預測警務的主要模型、功能、我國對預測警務的探索、存在的不足以及未來完善等問題,對預測警務的基本原理、可能面臨的風險,尤其是對公民權利可能造成的損害,以及防范風險的舉措等深層次問題則關注不足。
為推動預測警務在我國的發展,本文擬對預測警務在域外國家的產生與沿革進行深入考察,剖析其制度機理,研究其可能存在的風險,尤其是對公民權利可能造成的損害,在此基礎上,對預測警務在我國的推行與規范提出建言與設想。
二、大數據預測警務的運作機理
警方控制犯罪能力的高低不僅取決于其在犯罪發生后準確查明犯罪事實的能力,在很大程度上也取決于其在案發前準確預測犯罪的能力。然而,在大數據時代到來之前,警方預測犯罪的能力非常有限。有學者將大數據時代之前的犯罪預測方法稱為“臨床法”(clinical method),這種預測方法建立在個體的直覺、經驗等主觀判斷的基礎之上,不受預先設定的已識別變量的控制?!芭R床法”預測的可靠性一直飽受質疑,早期的研究認為這種預測方法完全不值一提,幾乎跟碰運氣差不多。
大數據時代的到來使這一切發生了改觀。由于收集和處理數據的能力大幅提升,大數據時代的預測更多地建立在客觀數據和科學方法的基礎之上,這種預測又被稱為“精準預測”(actuarial prediction),其機理是“考察客觀的、機制性的、可重復的預測因素,通過實證研究方法對這些預測因素進行選擇和驗證,并將其運用于被量化的已知結果”。對犯罪的精準預測也遵循基本相同的邏輯:通過理論和實證研究選擇和驗證客觀的、機制性的、可重復的預測因素,將這些預測因素運用于通過大數據技術收集和處理的大量數據,在分析技術(算法)的支持下獲得犯罪的概率或者預期值,這一概率或者預期值將成為指導警察行動的重要依據。由于大數據預測警務技術能夠較為精準地預測未來可能發生的犯罪的時間、地點甚至人員,因而警方可以據此合理地配置警力資源,將主要警力配置于最可能發生犯罪的地點或者目標人群,這能夠極大地提高警方控制犯罪的能力和效率。在司法資源捉襟見肘的今天,大數據預測警務的出現給控制犯罪帶來了新的希望和曙光,因而各國警察機構都對其青睞有加。
作為一種精準預測的大數據預測警務大約發端于20世紀90年代。雖然起源時間相對較晚,但迄今為止已經歷幾次較大的代際更迭。美國學者安德魯·格思里·弗格森將大數據預測警務的發展概括為三個階段:預測警務1.0階段(predictivepolicing 1.0)、預測警務2.0階段(predictive policing 2.0)和預測警務3.0階段(predictive policing 3.0)。支持這三個階段的理論基礎有所不同,這三個階段的預測能力存在明顯區別,與此同時,這三個階段所引發的問題也不盡相同。
(一)大數據預測警務1.0階段
有學者認為,最早的大數據預測警務實驗開始于20世紀90年代紐約市警察局使用的統計數據比較系統(Compare Statistics System)。但大多數學者認為,真正開啟大數據預測警務1.0時代的是美國洛杉磯警方。洛杉磯警方與幾所主要大學的研究機構進行了一項實驗:使用一種預測算法對三種財產犯罪進行預測:入室盜竊、汽車盜竊和車內財物盜竊。實驗取得了成功:在實驗開展的最初6個月內,入室盜竊罪下降了25%。
大數據預測警務1.0與后文將要考察的大數據預測警務2.0之所以能夠取得較為普遍的成功,關鍵在于這兩個階段的預測警務都有較為深厚的犯罪學理論作為支撐?!胺沼谌魏文康牡念A測分析和犯罪繪圖都應當有建立在犯罪學、社會學或者其他學科理論之上的強有力的理論基礎。如果與理論基礎的聯系貫穿于預測分析使用的全過程,那么這種分析將會更為可靠?!狈缸飳W早期一個較為成熟和著名的理論是社會解組理論(social disorganization theory)。該理論認為,“集中于特定地點的經濟劣勢與其他社區層面的分裂變量交織在一起,減損了諸如家庭、教堂和學校等社會組織對社區成員,特別是年輕人施加影響的能力”?;谶@一認知,社會解組理論認為:“‘地點’和‘方位’,也就是空間位置比其他任何個體特征與犯罪的相關性都要強”。此后,學者們在社會解組理論的基礎上發展出生態學理論(ecological theory)。該理論被認為是與犯罪繪圖和預測警務關系最為密切的理論,該理論重點關注防御空間,并主張通過改變環境設計來預防犯罪。
上述犯罪學理論揭示出一個重要事實:犯罪與環境因素有著非常緊密的聯系,特定的環境漏洞是導致犯罪的重要原因,這成為大數據預測警務1.0和大數據預測警務2.0的重要理論基礎。大數據預測警務1.0最典型的一個模型“近重復模型”(near repeat model)就建立在這一認知的基礎上?!敖貜湍P汀闭J為,一旦某一地點受到某一犯罪的侵犯,那么從統計學角度來說,在初次犯罪后的很短一段時間內,該地點很有可能再次受到同種犯罪的侵犯。學者們認為,之所以出現“近重復”現象,部分原因在于相同的犯罪分子返回來再次實施了犯罪,另一重要原因在于特定的環境漏洞并沒有消弭,例如,可能是因為該地點的房屋建筑結構存在缺陷,也可能是因為該地缺乏警力。總之,導致“近重復”現象的部分原因在于特定的環境漏洞誘發了犯罪。除“近重復”理論之外,其他相關理論,如“日?;顒印保╮outine activity)理論、“理性選擇”(rational choice)理論、“犯罪模式”(crime pattern)理論等也都揭示了環境因素與犯罪的緊密聯系。
大數據預測警務1.0的實驗將犯罪學的研究成果簡化為數據點(data points),并大量收集與之相關的歷史數據,然后運用實驗性算法預測出某一特定種類的犯罪可能發生的地點。這一地點是非常精確的,通常在500平方英尺以內。巡警收到顯示預測結果的地圖后,在巡邏的過程中會盡可能去造訪那些地點,從而防范犯罪的發生。實驗的結果證實了研究人員的預測。繼洛杉磯警察局的實驗取得成功之后,加利福尼亞州的其他一些地方也進行了類似的實驗,結果也都非常令人振奮。例如,在圣克魯茲的實驗中,財產犯罪率下降了4%至11%;在莫德斯托的實驗中,犯罪率呈兩位數下降;阿罕布拉警局報告稱,使用預測算法一年之后,車內財物盜竊罪的犯罪率下降了21%,汽車盜竊罪的犯罪率下降了8%。
(二)大數據預測警務2.0階段
如果說大數據預測警務1.0還停留在對財產犯罪的預測上,那么大數據預測警務2.0就將對犯罪的預測擴展到暴力犯罪。一般認為,與財產犯罪不同,暴力犯罪的發生在地理學上更為隨機,因而對暴力犯罪的預測會更為困難。然而,犯罪學的研究表明,暴力犯罪同樣會受到地理環境因素的影響,因而對暴力犯罪的精準預測也是完全有可能的。例如,犯罪學理論認為,特定的環境漏洞可能是暴力犯罪的重要誘因:有些小巷可能因為燈光昏暗、有便捷的逃跑路線以及更為接近受害群體等原因更加吸引搶劫罪犯;有些酒吧可能因為酒精混合物、毒品以及夜間判斷錯誤等原因更容易誘發暴力斗毆。
預測警務2.0階段最具代表性的預測模型是“風險地形模型”(Risk Terrain Modeling)。“風險地形模型”更多地將犯罪視為某一地區的社交、物質以及行為因素之間動態交互的結果,而不是將犯罪視為先前事件決定的結果。因而,“風險地形模型”并沒有將關注的重點放在過去的犯罪之上,而是將重點放在可能增加犯罪風險的當前環境風險因素之上?;谶@一理念,“風險地形模型”的運作機制在于尋找導致不同犯罪的風險因素,并運用多層計算機繪圖系統進行繪圖。
尋找并確定導致不同犯罪的風險因素對于“風險地形模型”來說至關重要,大量的理論和實證研究已經探尋出諸如殺人、傷害、強奸、搶劫、槍擊等諸多暴力犯罪的風險因素。例如,有研究認為,導致謀殺和非過失殺人的風險因素包括幫派活動、槍支的可獲得性、毒品交易、毒品和藥品的使用、失業;導致槍擊犯罪的風險因素包括毒品交易、有風險的住宅開發項目、幫派活動、槍支的可獲得性、犯罪歷史。
大數據預測警務2.0阻遏犯罪的邏輯與1.0較為類似:通過向高風險地區增派警力等方式降低該地區的風險值,進而最終實現犯罪率的下降。事實證明,這一阻遏犯罪的努力是非常成功的。一項在波士頓開展的研究表明,根據預測警務2.0的預測結果進行警力介入之后,暴力犯罪下降了17.3%,其中,搶劫犯罪下降了19.2%,重傷害犯罪下降了15.4%。
比較分析大數據預測警務1.0和2.0不難發現,兩者除了適用范圍有所不同之外,其預測依據也存在差別。大數據預測警務1.0還無法擺脫對過往犯罪活動相關數據的依賴,甚至可以說主要是建立在過往犯罪活動的數據基礎上的。而大數據預測警務2.0則“使用一個地點的地理和環境屬性來預測未來的犯罪,并不依賴于該地區過去犯罪活動的相關數據”,因而被認為是“真正的預測警務”。但是,大數據預測警務1.0和2.0也存在一些本質上的相同之處:首先,二者遵循的基本邏輯是相同的,即某一地區存在的特定的環境漏洞可能誘發犯罪,進而導致該地區發生犯罪的風險升高;其次,無論是大數據預測警務1.0還是2.0,都不會對某一具體犯罪作出預測,而只會對犯罪的風險值作出預測。
(三)大數據預測警務3.0階段
如果說大數據預測警務1.0和2.0只是實現了對犯罪地點的預測的話,那么預測警務3.0則實現了對可能實施犯罪的具體的人的預測。大數據預測警務3.0建立在如下認知上:負面的社交網絡如同環境漏洞一樣,有可能誘發犯罪行為。犯罪學理論發現,一小部分人群受其所處的社會關系網絡的影響,成為犯罪的受害者或者實施者的風險比其他人高很多。基于這一認知,研究人員構建了人與人之間關系和連接的地圖,并將地址、電話號碼以及其他數據源連接起來,以此為正在進行的偵查活動提供見解和思路,同時識別新的犯罪類型。
2013年,研究人員在芝加哥進行了一項實證研究,研究的目的是對預測警務3.0進行實踐和驗證。研究人員通過分析住址、社交關系情況(過去與槍支暴力受害者和幫派發生關系的經歷)以及年齡等指標來預測一個人成為槍支暴力受害者或者實施者的可能性。在實驗的過程中,每天都有數百名警官被派往芝加哥最危險的區域,這些警官收集上述區域中上萬名幫派成員、幫派成員的競爭對手以及幫派成員聲稱的領地等信息,然后運用大數據技術對上述信息進行綜合分析。在此過程中,警方鎖定了四百多人,這四百多人因為在社交關系網絡中所處的位置,被認為最有可能成為謀殺犯罪的受害者或者實施者。芝加哥警方將這個四百人名單稱為“熱點名單”(heat list)。一個人一旦被列入“熱點名單”,就會成為警方實施干預行為的對象,更容易被警方采取攔截或逮捕等措施。有學者指出,雖然被列入“熱點名單”這一事實并不足以構成“合理懷疑”或者“合理根據”,進而使警方對該人采取的攔截或者逮捕措施獲得正當性,但是,在其他大數據監控措施的配合下,警方對該人采取措施的可能性會大幅增加。
大數據預測警務3.0在美國的實驗被證明是卓有成效的,一項在新奧爾良市進行的實驗證明,通過界定那些可能卷入槍支暴力犯罪的高風險人群,并對這些人采取干預措施之后,新奧爾良市謀殺罪的犯罪率下降了21.9%。
三、大數據預測警務存在的風險
大數據預測警務給人們展示了一幅非常美好的圖景:傳統的建立在直覺、經驗等個體判斷基礎上的主觀預測被建立在海量數據和科學方法基礎上的客觀預測取代,預測的精準度大幅提高。根據這種預測來部署警力必然會極大地提升打擊犯罪的效率,進而有效緩解刑事司法資源捉襟見肘的現狀。不僅如此,大數據預測是計算機通過運行事先設計好的算法作出的,沒有摻雜警員的個人喜好和私人恩怨,也不存在權錢交易和暗箱操作的空間,因而預測的結果更為客觀公正,能夠有效避免當事人在刑事訴訟活動中遭受偏見和歧視性待遇。這些優勢很容易使人們迷信和盲目依賴大數據預測警務,對其隱含的問題視而不見。
然而,如果對大數據預測警務深入分析不難發現,預測結果的準確性和公正性不是必然的和無條件的;相反,其對數據和算法有著非??量痰囊螅绻麛祿退惴ú荒軡M足這些嚴苛的要求,預測的結果不僅可能出現錯誤,甚至可能會對公民權利構成巨大威脅。在偵查實踐中,存在大量影響數據質量的因素,也有很多算法難以克服的障礙,以致嚴重制約了預測警務的準確性和公正性。正因為如此,在域外國家,預測警務的應用一直存在激烈的爭議,近年有些國家或地區甚至禁止警察在執法時使用預測警務。例如,美國加利福尼亞州圣克魯斯市曾于2011年通過了一項“預測警務計劃”,啟動了預測警務的試點,從而成為美國最早試點預測警務的城市。但是,由于預測警務一直面臨基礎數據不準確、預測結果存在偏見等質疑,2020年6月,圣克魯斯市通過一項法令,禁止本市警察機構繼續使用預測警務。
(一)數據的風險:準確性、完整性和新鮮性難以保證
從前文對大數據預測警務的介紹可以看出,大數據預測警務的運行邏輯是:收集一種或者多種類型的數據;運用算法對收集的數據進行分析,以預測出某一地域乃至某個人發生(實施)犯罪的可能性;警方根據預測的結果實施警務行為。由此可見,如果將預測警務視作一幢大廈,數據就是這座大廈的基石,數據的質量直接決定著預測結果的準確性??梢韵胍姡鳛榛臄祿呐鲁霈F細微的偏差,也會對預測結果造成嚴重影響。
1.數據的準確性和完整性難以保證
司法實踐中,保證數據的準確性和完整性絕非一件易事,在采集、錄入、整合和共享數據的過程中,存在諸多可能導致數據錯誤或者不完整的因素。美國聯邦司法統計局曾經就這一問題發出喟嘆:“在絕大多數專家看來,犯罪記錄準確性和完整性的不足是影響國家犯罪記錄信息系統的最為嚴重的缺陷?!?/p>
以收集數據為例,完整地收集各類犯罪的數據對于警方來說是一件非常困難的事情。雖然某些犯罪,如殺人罪或者涉及交通工具的犯罪,因為犯罪的性質、嚴重程度或者某種激勵機制(如保險公司理賠程序的要求)的存在,被害人或者相關人員通常會向警方控告或者報案。但是,大量犯罪中的被害人或者相關人員可能不會向警方報案或者控告,這將嚴重影響警方掌握的數據的完整性。例如,性侵害類犯罪的被害人出于免遭二次傷害等原因,往往選擇不向警方報案。又如,家庭暴力類犯罪的被害人出于保護隱私、維系家庭關系等考量,也經常選擇隱忍。正因為如此,警方掌握的犯罪數據往往是殘缺不全的。據美國聯邦司法部測算,在2006年至2010年期間,只有不到一半的暴力犯罪被警方統計,被警方統計的家庭財產犯罪的比率甚至更低。
再以數據的整合和共享為例,為強化數據資源的功能,執法機構往往會對不同數據庫中的數據資源進行整合,在整合數據的過程中也容易出現各種錯誤。整合數據的方法各有不同,可能僅僅基于姓名和住址進行整合,也可能加上社會保險號、出生日期等附加信息,由于姓名和住址數據是以多種格式捕捉的,這就很可能導致出現錯誤。
2.數據的新鮮性難以保證
除準確性和完整性外,大數據預測警務的有效運作還要求數據具有新鮮性。社會生活瞬息萬變,警務預測系統必須及時跟進社會生活的急劇變化,否則將無法保證預測結果的準確性,而如何保障數據的新鮮性一直是困擾大數據預測警務的一個問題。
如前文所述,支持大數據預測警務的一項重要理論基礎是犯罪學的研究成果:特定的環境漏洞是導致犯罪發生的重要原因。也就是說,某一地方之所以一而再、再而三地發生某種或某些犯罪,是因為存在某些環境漏洞,比如照明系統比較昏暗、缺乏必要的警力資源、有便捷的逃跑路線等。如果這些環境漏洞一直沒有得到修復,預測警務系統會一直提示該地方為“犯罪高風險區”,警方基于該提示實施相應的警務行為并無疑問。但值得注意的是,上述環境漏洞是可能被修復的。比如,在某一地方被列為“犯罪高風險區”以后,警方采取了一系列補救措施,比如改善照明系統、增派警力、在可能的逃跑路線上增設卡點等,那么該地方的環境漏洞就可能因此得以修復,發生犯罪的風險也會隨之降低。在此情況下,如果不及時更新相應的數據,那么預測警務系統還將維持該地方為“犯罪高風險區”的提示,此時警方如果盲目依賴預測系統的提示實施警務行為就會引發問題,輕則導致警力資源的浪費,重則可能對公民權利造成侵害。
然而,保持數據的新鮮性,如同保證數據的完整性和準確性一樣絕非易事,需要投入大量的人財物力資源,需要建立相應的長效機制;如果投入的人財物力資源不足,或者缺乏相應的長效機制,數據庫很容易出現老化問題,嚴重影響預測結果的準確性。在美國,雖然其預測警務系統比較發達,相關警察部門也非常重視預測警務數據的質量,但即便如此,美國刑事司法數據庫的數據質量也一直廣受詬病。如美國聯邦司法統計局在2005年的一份報告中指出:“調查顯示,刑事歷史報告面臨很多問題,包括大量積壓、沒有處置的舊記錄以及缺乏保障記錄準確性的必要審計?!苯鹚共翊蠓ü僭凇昂樟衷V美國案”(Herring v. United States)中發出這樣的感嘆:“這些數據庫中的錯誤產生的風險并不小,赫林案給我們的警示是,執法部門的數據庫沒有受到充分的監督,并且經常是過時的?!?/p>
(二)算法的風險:錯誤、歧視難以避免和糾正
在充分收集與犯罪有關的數據之后,警務人員必須利用計算機系統,采用一定的算法,對所收集的數據進行分析,從而得出有關犯罪可能性的結論。由此可見,算法是連接犯罪數據與犯罪可能性的樞紐,是計算機對數據進行分析、整理、挖掘所依據的步驟和程式,算法設置是否合理直接決定著預測結果是否準確。域外預測警務的實踐表明,預測算法作為評估未來發生犯罪可能性的模型,是極有可能出現錯誤的,甚至可能會對刑事訴訟的一些基本原則構成威脅。如果對這些問題視而不見,片面迷信預測算法,不僅可能無法實現預測警務提升訴訟效率的功能,反而會對司法公正的價值目標造成巨大沖擊。
1.算法可能出現錯誤
預測算法的工作機理是根據一系列與犯罪有關的因素判斷某一地區或者某個人未來發生或實施犯罪的概率,而不是在有充分證據的基礎上斷定某個地區是否必然會發生犯罪或者某個人是否必然會實施犯罪。這一工作機理決定了預測的結果是有可能出現錯誤的?!邦A測技術是存在錯誤率的,錯誤涵蓋假陰性(false negative)和假陽性(false positive)兩種?!薄凹訇幮浴笔侵杆惴A測某一地區不太可能發生犯罪或者某人不太可能實施犯罪,但是該地區事后發生了犯罪或者該人事后實施了犯罪?!凹訇栃浴笔侵杆惴A測某一地區可能發生犯罪或者某人可能實施犯罪,但事后該地并未發生犯罪或者該人并未實施犯罪。無論出現了“假陰性”還是“假陽性”的預測結果,都會對刑事訴訟的價值目標造成沖擊?!凹訇幮浴钡念A測結果可能導致警方防范不足,被錯誤認定為“低犯罪風險”的地區或人員因為警力分配不足最終發生或實施了犯罪?!凹訇栃浴钡念A測結果則會導致警方對被錯誤認定為“高犯罪風險”的地區或人員配置過多警力,甚至對無辜公民的權利進行不當干預和侵害。相比之下,“假陽性”對刑事訴訟價值目標的沖擊更為嚴重?!凹訇幮浴北M管可能導致一些犯罪未能得到有效控制,但警方通過刑事追訴程序通??梢允勾蠖鄶捣缸镌斐傻膿p害后果得到修復;而“假陽性”則可能導致警方對無辜公民的人身權進行限制甚至剝奪,而對公民人身權的限制或剝奪在發現錯誤時很難彌補。
不僅如此,相較于預測警務1.0和2.0而言,“假陽性”對預測警務3.0造成的沖擊更大。原因在于,預測警務1.0和2.0只是預測某個地區是否可能發生犯罪,而預測警務3.0直接預測某個特定的人是否存在較高的犯罪風險,一旦出現“假陽性”的錯誤結果,將直接導致國家公權力對公民個人權利進行不當干預和侵犯?!熬皖A測警務3.0而言,當警方使用大數據技術在大型數據庫中開啟匹配嫌疑模式時,錯誤導致的風險上升了。假陽性的預測結果會導致無辜的公民被單獨挑出來,并就非犯罪行為接受調查。這些調查可能包括警察的肢體接觸、威脅甚至暴力行為?!?/p>
2.算法可能存在歧視
由于預測算法建立在客觀數據和科學分析的基礎上,而非基于辦案人員的主觀直覺和過往經驗,所以很容易使人們誤以為大數據預測警務得出的結論是客觀公正,不存在偏見的。然而,算法在消費、求職等其他社會領域的應用早已表明,算法絕非如其外觀呈現出來的那樣客觀公正,而是存在嚴重的歧視問題?!八惴ㄔ谥T多領域的運用中產生了歧視性后果,常見的表現形式有價格歧視、就業歧視、信用歧視?!敝运惴ㄒ矔霈F歧視,一個重要原因在于預測算法并非脫離社會生活而存在,它服務于社會生活,因而必須接受源自社會生活的大量數據的訓練,如果社會上存在對某一群體的歧視和偏見,那么用來訓練算法的數據也會存在歧視和偏見,最終導致算法被打上歧視和偏見的烙印。預測警務的算法也無法例外,“如果作為基礎的數據是歧視性的,那么建立在該數據基礎上的算法也會是歧視性的,那些所謂的無歧視算法(color-blind algorithms),所做的不過是強化刑事司法體系中業已存在的偏見而已”。
以美國為例,美國很多司法轄區都以攔截、逮捕或者監禁等數據訓練預測算法,表面看來,這些數據的確與一個地區的犯罪風險程度存在相關性,并且這些數據并非族裔、收入等敏感數據,貌似與歧視和偏見無關。然而,由于美國社會存在嚴重的種族歧視和貧富差距,對少數族裔、窮人適用攔截、逮捕和監禁的比率比對白人、富人高得多,因而其攔截、逮捕和監禁等數據本身就存在嚴重的歧視、偏見問題,用這些數據訓練出來的算法也很難擺脫歧視和偏見的色彩。以攔截的適用為例,“盡管14至24歲之間的黑人男子和拉丁裔男子只占紐約市人口的4.7%,但是對他們的攔截卻占到了2011年紐約市攔截總量的41.6%”,不僅如此,“對年輕黑人攔截的次數已經超過了整個城市黑人的人口數量”,與此形成鮮明對比的是,上述被攔截的人當中只有很少的人最終被逮捕。黑人和白人群體攔截數據的巨大差異可能不是因為黑人群體更可能實施犯罪,而是因為“刑事司法體系存在內在的種族偏見,例如警察更傾向于對少數族裔而非白人采取措施,又如少數族裔社區往往被布置了更多的警力”。
很明顯,如果執法機關用過往適用攔截、逮捕或者監禁等措施的數據訓練算法,必然導致在其他變量相同的情況下,相對于白人社區,黑人或者拉丁裔等少數族裔聚居的社區更容易被算法界定為“高犯罪風險區”。一旦被界定為“高犯罪風險區”,這些地方就會受到過度監控,居住在這些地區的居民的權利,包括人身權就更容易受到公權力的侵害。
3.算法出現問題很難被發現和糾正
無論是建立在直覺、經驗基礎上的“臨床預測”,還是建立在大數據、算法基礎上的“精準預測”,都可能出現錯誤和歧視等問題。然而,與警員個體的“臨床預測”不同的是,預測警務這種“精準預測”由于有客觀數據和科學方法的加持,因而更容易呈現出一種客觀而準確的外觀,讓人們很容易忽視其本身可能存在的各種問題。預測警務出現問題很難被發現和糾正,還與算法不透明息息相關。許多算法開發公司都尋求知識產權保護,拒絕公開算法。以美國為例,刑事司法系統中運用最廣泛的兩大算法(COMPAS和PredPol)的開發商均主張其軟件的內在運作機制屬于商業秘密,還經常要求警方簽署保密協議,反對公開記錄。其實,即使開發算法的公司不尋求知識產權保護,預測算法存在的問題也很難被發現和糾正,這與算法本身難以理解不無關系。算法在社會生活各個領域的運用都存在“黑箱效應”。“大數據分析使用的人工智能在處理數據以及根據數據作出決定時使用復雜的數學算法。這些算法通常是不透明的,產生了所謂的‘黑箱’效應(‘black box’ effect)。”對于屬于計算機外行的人士來說,理解算法并發現算法的錯誤是一件非常困難的事情。
四、大數據預測警務的法律規制
近年來,我國公安機關越來越重視預測警務的探索和運用,并取得了一定的積極成效。例如,蘇州市高新區公安分局運用“蜂巢計劃”預測警務系統對每日警情、發案數據進行自動分析,預測重點發案點位,指導巡防工作,極大地節約了警力資源,“2018年1月至11月,轄區違法犯罪警情同比下降16.5%,其中刑事案件發案數同比下降31.3%,而巡防警力未增加一人”。又如,2021年,合肥市公安局研發了“守望者”綜合反詐平臺,該平臺“能夠依據結構化數據的關聯性,自動建立數據連接,以預警數據中的人員信息為依據,挖掘拓展關聯信息,輸出預警線索,提高預警率”。
然而總體上看,我國預測警務的探索尚處于起步階段,目前尚未出臺全國層面統一的制度規范,既沒有規范性文件對處理數據的各個環節進行規制,也沒有相關文件對預測警務算法開發和應用的條件作出明確規定,更沒有相關文件對預測警務運行過程中警察權的約束以及公民權利的保護作出規定。在這種背景下,各地對預測警務的探索往往各自為政,缺乏統一規制。這種狀況一方面可能導致數據和算法的質量無法得到保障,影響預測的準確性;另一方面,由于警察權在運作過程中缺乏約束,可能對公民權利造成侵害。
前文的分析表明,預測警務的數據和算法都可能出現錯誤,并且這些錯誤往往具有隱蔽性,很難被覺察和糾正。因而,我國在未來建構大數據預測警務制度時應當建立嚴密的約束機制,有效確保數據和算法的準確性,并在數據和算法出現錯誤時及時糾正;同時有效規制警察權的行使,確保公民權利免受不當干預。
(一)規范數據采集和處理程序,確保數據質量
近年來,隨著大數據警務活動的開展,許多公安機關已經收集并儲存了海量數據,這為預測警務活動的開展奠定了堅實的數據基礎。以遼寧省為例,截至2021年,該省“已經匯聚、整合內外部數據資源一百余類、二百余億條數據……省公安廳已建各類信息化系統、平臺共二百余個”。然而遺憾的是,針對警務數據質量和管理的立法尚處于空白狀態。雖然一些非官方機構很早就開始探索警務數據的行業標準,如2011年中國計算機軟件與技術服務股份有限公司、中國人民公安大學公安管理學院等單位聯合起草了《公安信息化數據質量管理規范》,對數據的采集、審核、校驗、標記、更正等提供了行業指引,但迄今為止,公安部尚未出臺全國統一適用的規制警務數據處理的規范性文件。實踐中,各地公安機關采集和處理數據時缺乏有效的規范和指引,導致處理數據的很多環節都存在問題。以數據采集為例,數據“虛采、漏采和信息不完整、不規范”仍然比較嚴重。再以數據錄入為例,有些地方的公安機關“不執行統一的業務規范與數據標準,或是使用的標準版本滯后,導致數據格式不一致”,給數據的融合、使用造成困難。又以數據的儲存和維護為例,數據庫信息泄露風險不容忽視,甚至存在公安人員泄露公民個人信息的情況。在一些出售、非法提供公民個人信息犯罪的案件中,泄露公民個人信息的源頭就是公安機關工作人員。為確保服務于預測警務的數據的質量,建議采取以下措施:
第一,由公安部出臺統一的警務數據操作管理規范,對采集和處理警務數據各個環節的要求和標準作出嚴格規定。具體而言,操作管理規范應當根據不同類型執法數據的特點,對數據的收集范圍、收集程序和收集方法分別作出規定,并對容易被遺漏的數據類型作出特別提示,從而確保收集數據的準確性和完整性。應當對錄入數據的格式、創建條目的程序和要求等作出統一規定,從而確保錄入數據的規范性和統一性。應當根據不同類型數據的特點,對更新數據的期限作出規定,并設置相應的程序提醒和督促工作人員及時更新數據,從而確保數據的新鮮性。應當明確數據的復核和校準機制,在一名工作人員完成數據的錄入、更新之后,由另一名工作人員進行復核和校準,從而將錯誤率降到最低。“制定強制性的統一標準,指導如何收集數據并將其輸入預測警務項目……將顯著降低與人類收集大數據的易錯性相關的潛在風險?!?/p>
第二,公安機關設置專職的數據操作和管理人員,專門負責數據的采集、錄入、傳輸、存儲等工作。數字時代的到來意味著警務活動的樣態發生了巨大變化,與數據相關的警務活動占據了警務活動的相當部分,這在客觀上要求將更多的警力資源分配到處理數據的工作中。以數據的收集為例,雖然目前已經出現了一些自動化的警務數據收集工具,但大量的警務數據還是依賴警務人員的手動輸入,例如警情、案件、入監所人員、涉案人員等觸發型公安核心業務數據主要依靠警務人員手動輸入;又如常住人口、暫住人口、出租房屋等常態型公安警種業務數據,有相當一部分也依靠警務人員手動輸入。為保證這些數據能夠被完整收集、準確錄入,以及在發生變化后及時更新,必須投入大量的專職警力資源。
(二)建立算法審核機制,對算法的準確性和風險進行審查評估
目前,警務預測算法的設計和運用基本上是一種“警方+技術提供方”的二元封閉模式,也就是由警方負責提出建設要求和相關數據,由技術提供方負責設計算法。在這種模式下,算法進入刑事司法程序缺乏來自第三方的審查和評估,這對確保算法的準確性與合理性是明顯不利的。
第一,有些算法所依據的理論基礎可能是不可靠的,缺乏第三方審查可能導致不合理的算法進入刑事司法程序,沖擊刑事訴訟的價值目標。近年來,隨著大數據技術的迅猛發展,算法開發的步伐不斷加快,一些公司開發出了功能強大、對執法機構極具吸引力的算法。然而,有些算法所依據的理論基礎并不可靠,甚至可能存在嚴重問題。例如,美國聯邦政府很早就開始測試一種算法,該算法能夠根據一個人的生理數據預測該人是否意圖實施恐怖行為。挪威的研究走得更遠,一個研究項目嘗試將某些兒童預先歸類為“可能的罪犯”。挪威政府收集了大量公民的數據,并將這些數據與單一的身份文件關聯起來,研究人員希望通過挖掘兒童及其父母的身份文件,通過兒童出生時的環境來預測該兒童是否會在18歲生日之前實施犯罪。這種算法對執法機構具有吸引力,因為該算法聲稱,它們能夠將可能危害社會的危險分子精準地篩查出來。然而,只要稍加分析就不難發現,這種算法其實就是建立在天生犯罪人理論的基礎之上,而天生犯罪人理論的缺陷毋庸多言,建立在該理論基礎上的算法的準確性是難以得到保障的。退一步而言,即便算法的準確性能夠得到保障,這些算法的內在邏輯——犧牲某些特定群體的利益以實現社會安全——也是令人不安的。
第二,構建算法時需要對一些重要的法律價值進行權衡和取舍,缺乏第三方審查可能導致算法對法律價值的選擇背離法律的原則與精神。預測警務算法的構建包含許多復雜的步驟,其中很多步驟都涉及對不同法律價值的判斷和取舍,因而構建預測警務系統時需要由執法機構之外的第三方進行審查和評估。例如,“在構建算法系統時,必須選擇如何權衡不同的錯誤:假陽性和假陰性。這意味著在開發預測警務系統時必須判斷哪一種情況更糟糕:將無辜者視為潛在的罪犯(假陽性)或者讓算法忽視潛在的犯罪(假陰性)”;“編程人員必須對分析方法進行‘校準’,使之偏向于一種錯誤而不是另一種,或者,如果可能的話,必須嘗試平等地對每一種算法錯誤進行權衡。每一種‘校準’不僅是一種技術決策,也是一種政治決策”。很顯然,在對上述問題進行權衡和選擇的時候,執法機構基于打擊犯罪的立場,可能會作出與法律專家截然不同的選擇;負責開發算法的技術專家也有可能作出與法律專家完全不同的選擇,因為科學技術具有追求效率的內生動力,而公正具有難以量化的特點,當公正與效率發生沖突時,技術專家往往會傾向于選擇效率。例如,在假陽性錯誤(冤枉無辜)和假陰性錯誤(放縱犯罪)之間,執法機構和技術專家可能認為后者更加難以容忍。又如,在保護公民個體權利與實現社會安全方面,執法機構和技術專家可能認為后者更值得保障。為避免算法中法律價值選擇的失衡,算法的設計過程不僅需要有技術專家的參與,也需要有法律專家的參與。即使因為客觀原因,在設計算法時未能邀請法律專家參與,也必須保證在執法機關將其應用于刑事司法系統之前由法律專家對算法進行審核,確保算法對法律價值的選擇不悖離法律的原則和精神。
筆者認為,我國在未來建構預測警務制度時,也應當建立嚴格的算法審核機制。具體而言,可以在省級以上公安機關設立專門的算法審查委員會,市、縣級公安機關開發或者引入預測警務系統時,必須申請省級以上公安機關算法審查委員會進行審查。算法審查委員會由法律專家和技術專家組成,同時可以吸收社會公眾參與。委員會應當審查算法所依據的理論基礎是否可靠,是否會造成對某些群體的歧視,是否與法律的基本原則、規則存在沖突等。只有經審查,算法在以上方面都沒有問題,執法機關才能予以引進。事實上,這也是開發與應用人工智能的許多國家、地區的共同要求。如歐盟基本權利機構在2022年12月發布的《算法中的偏見:人工智能與歧視》中就呼吁,人工智能算法的開發與應用者應當就算法對公民及其基本權利可能造成的影響進行審查,“實現技術創新與基本權利的平衡是歐盟規制人工智能及相關技術的政策努力的核心”。
(三)規制預測警務系統的設置與使用,確保對公民權利的保障
在預測警務模式下,受益于大數據帶來的技術紅利,國家管理社會和預防犯罪的能力獲得大幅提升,但與此同時,國家公權力與公民個人權利的沖突樣態也發生了變化。在傳統警務模式下,犯罪事實發生以后警方才會采取執法措施;而在預測警務模式下,犯罪尚未發生時警方就會積極主動預測,并采取相應的執法措施。在傳統警務模式下,警方執法一般針對特定嫌疑人;而在預測警務模式下,警方執法經常針對不特定人、不特定群體。這兩大特征導致在預測警務模式下,警察權力更容易被濫用,公民權利更容易被侵犯,因而必須對警察權的行使進行嚴格規制,防止公民權利受到侵犯。
1.建立預測警務數據庫的嚴格管理制度,確保公民隱私和個人信息的安全
長期以來,我國刑事訴訟法對公民隱私權、個人信息的保護都明顯不足,立法中有關公民隱私權與個人信息保護的規定寥寥無幾。不僅如此,有限的與公民隱私權和個人信息保護相關的條款也主要適用于傳統的對已發生犯罪的偵查,并不適用于預測警務活動。可以說,我國預測警務活動中公民權利的保護尚處于立法空白狀態。這種立法現狀導致我國預測警務數據庫的建立缺乏規制,大量適用于人員預測的數據庫(類似于預測警務3.0的數據庫)被建立起來,數據采集也存在無序擴張的風險。以某地建立的禁毒數據庫為例,該數據庫目前采集的主要是涉毒人員的數據,然而,有學者因為擔心“信息采集不足,無法做到完整而準確的毒情態勢感知”,主張“數據庫系統不僅要關注已經初步標定的涉毒目標數據,還要廣泛采集和存儲大量看似并未涉毒的目標數據,即全維度地采集社會綜合數據信息”。擴大數據庫的規模雖然對于預測和控制犯罪具有意義,但如果數據的采集不受任何限制,可能會對公民權利構成威脅。因此,我國未來立法應當建立嚴格的約束機制,以實現預測犯罪與保障公民基本權利的平衡。
(1)對人員數據庫的入庫信息進行分類管理
如前文所述,預測警務分為1.0、2.0和3.0階段,與之相應,預測警務數據庫可以分為兩類:一類是服務于犯罪地點預測的數據庫,主要是預測警務1.0和2.0;另一類是服務于相關人員預測的數據庫(簡稱人員數據庫),主要是預測警務3.0。不同于前者,后者(人員數據庫)通常需要儲存大量的公民個人信息,如姓名、住所、職業、身份證號碼等信息,有些數據庫可能還需要儲存公民的生物特征、宗教信仰、特定身份、醫療健康、金融賬戶、行蹤軌跡等敏感個人信息。這類數據庫的建立和使用會對公民的個人信息權和隱私權構成威脅,因此有必要對人員數據庫中的數據進行分類管理。犯罪人或者被追訴人由于被認定為實施或者涉嫌犯罪,因而對執法機構收集和儲存其個人信息負有一定的忍受義務,執法機構不僅可以收集和儲存其非敏感個人信息,也可以收集和儲存其敏感個人信息。但被害人和證人等并沒有被認定為實施或者涉嫌犯罪,收集和儲存他們的敏感個人信息可能導致刑事執法活動價值取向的失衡。因而未來立法時有必要明確規定,除非征得被害人、證人的同意,執法機構不得收集和儲存他們的敏感個人信息。事實上,有些國家和地區已經注意到了這一問題,例如,《歐洲議會和理事會指令2016/680》第31條明確規定,“應當盡可能明確區分不同類別數據主體的個人數據,例如:犯罪嫌疑人、被定罪的人、被害人以及其他訴訟參與人,如證人、掌握相關線索和聯系的人、嫌疑人或者罪犯的同伙”。
(2)對人員數據庫的使用進行嚴格規制
人員數據庫中的信息與公民身份是一一匹配的,如果不對其適用進行嚴格規制,容易導致侵犯公民隱私權和個人信息權;同時,人工智能算法能夠對海量數據進行挖掘、整理和分析,如果不對人員數據庫的使用進行必要限制,很容易導致警方運用人工智能算法,通過信息碰撞實現對公民各個方面信息的碎片化整合,實現對公民生活、工作、社交等各個方面的“全景監控”,侵犯公民個人隱私。正因為如此,域外有些國家限制甚至禁止廣泛收集公民個人信息進行犯罪預測。例如,荷蘭曾開發了一款用于預防和打擊社會保障領域欺詐行為的預測警務系統——“系統風險提示”(System Risk Indication)預警系統。為了保證預測效果,該系統需要收集大量公民個人信息,如就業數據、公民一體化數據(civic integration data)、債務數據、健康保險數據、個人基本資料(姓名、住址、出生日期等)。由于該數據庫可能對公民隱私構成巨大威脅,2020年荷蘭海牙地區法院裁定,因為該預測警務系統侵犯了《歐洲人權公約》第8條所規定的隱私權,因而不得使用。借鑒域外經驗,建議我國未來對人員數據庫的使用設置嚴格的控制機制。首先,人員數據庫只能適用于比較嚴重的犯罪,如可能判處3年有期徒刑以上刑罰的犯罪。其次,人員數據庫的使用必須經過嚴格的批準程序,如必須經過縣級以上公安機關負責人批準。最后,建立數據的定期刪除制度,如對于超過一定期限的刑事案件,必須刪除數據庫中相關人員的數據。
2.除非有其他證據證明相對人實施了涉嫌犯罪的行為,不能僅憑大數據預測結論對其權利進行限制或者剝奪
在傳統警務模式下,警察不可能僅僅根據一個人的身份特征對其權利進行限制或者剝奪。很難想象,警察僅僅因為一個人處于失業狀態、居住在貧民區或者屬于某個特定族群就對其采取攔截或者盤查措施。在傳統執法模式下,警方必須掌握了一定的證據證明相對人可能實施了違法犯罪行為才能對其權利進行限制或剝奪,如執法人員自己目擊相對人實施了違法犯罪行為,或者有證人指認相對人實施了違法犯罪行為,或者相對人身上、住所遺留有犯罪證據等。但在預測警務模式下,這一切很可能發生變化。如前文所述,大數據預測往往是根據周圍環境、人員構成、收入狀態、年齡、性別等群體性特征來判斷某個地區是否是犯罪“高風險區”,或者某個人是否應當被列入犯罪“熱點名單”。由于算法具有“黑箱效應”,同時執法人員往往存在“自動化偏見”(automation bias)和“確認偏見”(confirmation bias),因而執法人員很可能對算法存在不切實際的依賴,在算法背后的運作機理尚未得到充分證明的情況下就將其奉若圭臬,完全依賴算法的結論實施警務行為。這就很有可能導致僅憑一個人的身份特征就對其權利進行限制或者剝奪?!昂茈y想象現實社會中會出現這樣的場景:群體特征本身就達到了合理懷疑的標準,但是在機器預測時代,理論上是有可能達到這一結果的?!?/p>
僅僅因為一個人的身份特征而非具體行為就限制或者剝奪其權利不僅是錯誤的,而且是非常危險的。首先,這打破了國家公權力與公民個人權利之間的平衡關系。根據法治的一般原則,國家公權力與公民個人權利之間應當維持一種合理的比例和平衡關系,只有當公民個人存在危害社會的現實風險時,國家公權力才能對公民個人權利進行限制或者剝奪。而只有當公民可能實施了危害社會的違法犯罪行為時,才能認為其存在危害社會的現實風險。如果沒有任何證據證明公民可能實施了危害社會的行為,不能僅僅因為其具有某種群體性特征,如屬于失業群體或者特定族群,就認定其存在危害社會的現實風險,進而采取限制或者剝奪其權利的措施。否則,將打破國家公權力與公民個人權利之間的平衡關系,突破國家行使公權力的正當性底線。其次,僅憑身份特征就限制或者剝奪公民權利會導致嚴重的歧視和社會不公。如果允許僅憑一個人的身份特征對其權利進行限制或者剝奪,那么,從理論上說,具備該身份特征的每一個社會成員,無論如何謹小慎微地約束自己的行為,只要其沒有擺脫自己的身份特征,就可能隨時面臨被限制或者剝奪權利的風險?!皟H僅因為一個人屬于某個特殊的群體(a specific group)就對他實施攔截、搜查或者逮捕是不合適的,這樣做等于是說一個人的群體特征是如此可疑,以至于任何特定的時刻都有理由相信他有可能從事犯罪活動?!边@意味著某些群體成員僅僅因為身份烙印就被迫承受來自公權力的更多干預甚至侵犯,而無法與一般社會成員一樣享受到平等的權利保障,這將動搖公正、平等、正義等現代法治的基石。
基于以上原因,筆者認為,除非有其他證據證明相對人實施了違法犯罪行為,否則不能僅僅依據大數據預測結論對其權利進行限制或者剝奪。“僅僅因為一個人屬于某一特定的階層或者處于某個群體就對其采取措施,這種做法無論在道德上還是法律上都是錯誤的。這就是為什么預測算法也需要將被告人的特定行為作為考慮因素的至關重要的原因,預測算法必須這樣設計——不將預測完全建立在身份和地位的基礎上。換句話說,預測不能建立在一個人是誰的基礎之上,必須建立在一個人做了什么的基礎之上?!币恍┯蛲鈬一虻貐^已經注意到這一問題,并在立法上作出明確規定。例如,歐盟2024年頒布的《人工智能法案》(Artificial Intelligence Act)第42條明確規定:“根據無罪推定原則,永遠只能依據自然人的實際行為對其作出判定。絕不能在缺乏客觀可核實的事實基礎證明一個人卷入刑事犯罪,且缺乏人工評估的情況下,由AI僅僅基于一個人的概貌、個人特征或者性格,如國籍、出生地、住所、子女數量、債務水平或者車型對一個人的行為作出預測”。
隨著我國預測警務實踐的快速發展,一些地方已經運用預測算法打擊犯罪。以江蘇省海安市為例,該市公安系統搭建了“流竄盜竊犯罪預警模型”,“通過數據賦能,加強對比碰撞,實現‘露頭就打’。2023年12月以來,海安公安通過巡防預警抓獲盜竊嫌疑人48名”。在預測警務法律規制不完善的情況下,未來有可能出現主要依靠、甚至完全依靠算法預測結論限制或者剝奪公民基本權利的現象。為防范這種風險,建議我國在未來立法時明確規定,除非有其他證據證明相對人實施了特定的違法犯罪行為,否則不得僅僅依據大數據預測結論對相對人的權利進行限制或者剝奪。值得注意的是,我國《個人信息保護法》第24條第3款明確規定:“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定?!边@一規定值得我國在將來建構預測警務的相關法律制度時予以借鑒。
3.保障被追訴方有權知悉警方進行大數據預測所依據的算法,并有權對算法的科學性、合理性提出質疑
(1)保障被追訴方對算法的知情權是程序正義的基本要求
程序正義有兩項重要要求:保障個體的尊嚴和確保個體對程序的充分參與。前者要求當事人在刑事訴訟中受到人道和有尊嚴的對待,如果被提起刑事指控,有權知悉指控的罪名及指控所依據的證據、事實和法律。后者要求當事人有充分的機會參與訴訟,全面收集和提出對本方有利的證據,有效反駁對自己不利的證據。
在一般人的印象中,算法是一套機械化的運算程序,會抹殺公民作為人的個體化特征,甚至將公民物化為一個個抽象的數據和概率值;在算法的世界里,公民個人更像是流水作業生產線上的產品而不是有血有肉的人。在這種認知背景下,如果相對人僅僅知道其被限制或者剝奪權利是算法預測的結果,而既不被告知算法預測所依據的因素及各因素的權重,也不被告知算法運作的機理,那么他就很容易產生不被尊重、沒有尊嚴的感覺,也絲毫體會不到自己作為程序參與者的主體地位,因而,相對人很容易認為程序是不公正的,甚至會對程序產生敵意。為了解決這一問題,立法必須明確規定執法人員有向被追訴人解釋算法的義務,確保被追訴人對算法的知情權。如果被追訴人了解算法的運作機理,知悉支撐算法的理論基礎,特別是知曉算法只是協助執法人員作出判斷的依據之一,自己被限制或者剝奪權利的主要原因在于自己實施了涉嫌違法犯罪的行為,這樣其認為自己被客體化、喪失尊嚴的認知將大為弱化,甚至完全消失。
(2)保障被追訴方對算法的知情權有利于強化對算法的監督
如前文所述,算法是有可能出現錯誤的,因而必須強化對算法的監督。對算法的監督可能來自公權力機構,如在引入算法之前由相關機構對其進行審查和評估。然而,僅僅依靠公權力機構對算法進行監督顯然是不夠的。公權力機構行政化的運作方式及其對算法錯誤在感知上的疏離使其對算法錯誤的監督往往較為遲滯和被動。要解決這一問題,最有效的辦法就是引入私權利主體,特別是被追訴方的監督。被追訴方是算法判斷結果的直接承受者,一旦算法出現錯誤,其很有可能被錯誤地限制甚至剝奪權利,因而被追訴方有強大的動力去探尋和質疑算法可能存在的錯誤。
要實現被追訴方對算法的監督,就必須保障被追訴方有知悉算法的權利。而且,這種知悉權應當是全面的:不僅應當有權知悉算法的結論,而且應當有權知悉警方是依據何種算法得出判斷結論的,還應當有權知悉算法的運作機理以及背后的理論依據。美國有學者明確主張,刑事辯護律師應當致力于推動檢察官披露在逮捕和起訴被告時使用的預測性警務工具(predictive policing tools)和決策支持模型(decision support models)。美國紐約州2020年1月1日生效的一項法律要求“檢察官在被告被傳訊后的15個工作日內與被告共享其發現的材料”。根據該法律,檢察官需要與被告共享的材料范圍非常廣泛,警方運用算法得出判斷的過程“應當被解釋為法律執行機構的報告(law enforcement report)”,屬于應當向被告披露的內容。
為了充分保障被追訴人的合法權益,同時強化對算法的監督,建議我國在未來立法時充分保障被追訴方對算法的知情權,規定警方在依據算法對被追訴人的權利進行限制或者剝奪時應當向被追訴人告知警方使用的算法,當被追訴人及其辯護人要求知悉算法的運作機理和理論基礎時,執法機關應當告知并進行詳細解釋。值得注意的是,我國《個人信息保護法》第24條第3款明確規定:“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明”;第48條進一步規定:“個人有權要求個人信息處理者對其個人信息處理規則進行解釋說明。”這兩條規定值得我們在將來建構預測警務的相關法律制度時予以借鑒。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.