如果一輛車在自動駕駛的過程中造成其他車輛的損失,這個責任應該有誰來承擔?目前已經有相關的法規適用于這種情況,在此姑且不去探討那些細則,首先法令的出現,就意味著這類問題發生的普遍性,其次也意味著未來可能會出現更多此類甚至更廣泛的問題。
智能駕駛技術,可能是人類歷史上,第一次如此大規模的迎來最高等級的智能機械設備在日常的應用。除了技術適用性以及發展上面的問題外,人們也是首次切切實實的感受到,可以被統稱為“人工智能”所可能帶來的“倫理問題”。
在此用倫理來形容這些問題,而不是社會或法律,因為所涉及的范圍并沒有大到影響全部社會生活,但也沒有小到僅僅是可以用法律來規范。在社會所有的行為當中只有一小部分會觸犯到法律,大量的不當的行為處在包含了法律但又大于法律的倫理范疇之內。
就當前的發展來看,智能汽車所帶來的問題既有在法律界定上的責任問題,也有諸多關于隱私、平權的內容,所以講這些統稱為智能汽車所引發的倫理問題并不為過。在此緊從幾個具有代表性的問題入手,來即開未來人們將會由于智能汽車所帶來的巨大的倫理問題的一角。
最先顯露的問題,是來自于智能汽車的一個主要的功能,即從外部來看,它是一個全身長滿了攝像頭的可移動計算機,在巨大電池的支撐下,這臺性能機器可以在它能夠去到的任何地點、任何時候對周圍甚至車內的環境進行圖像以及聲音的采集。同時在移動網絡的加持下,這些音畫內容可以被上傳到任何一個指定的網絡空間內。
不用多說,被互聯網多次洗禮人都有著很敏感的隱私嗅覺,所以智能汽車所面對的第一個大的倫理問題就是車外以及車內環境的隱私。
實際上,環境的隱私僅僅是智能汽車隱私問題的一個集中顯現,在這背后,更大的隱私可能以不同的方式在空中傳輸著。最明顯的就是駕駛者所使用的那輛智能汽車內部的所有傳感器所產生的,關于車輛運行狀況的數據。
如果說監測車輛情況可以提供安全性的話,那么在這個安全性的保護傘之下,駕駛者的駕駛習慣也會被智能汽車記錄在案,如果未來智能汽車廠商插手汽車保險業務的話,那么他們就會有更充足數據來分析任何一個車主在其操作習慣之下的駕駛風險。
這也并不是隱私問題的全部,在人們使用智能汽車的時候,他們也在被智能汽車的制造商使用著,在數據不斷的交換中,智能汽車廠商可以將這輛車轉化為一個感知原件、一個計算中心、一個駕駛情況的模擬器,從而“偷偷”地在駕駛者使用的同時,進行著某種算力的竊取。
當然,隨著隱私法規的不斷出臺,對于智能汽車能采集什么樣數據、能傳輸什么樣數據將會不斷明晰,但在此之前,就非常有必要在倫理層面去全面的理解智能汽車所帶來的利弊,以及規范好它的工作界限。
如果說隱私問題還不是性命攸關的話,那么關于智能駕駛的倫理問題,大多涉及到了財物的損失、甚至人員的傷亡,這時就需要法律的明確介入。一個最直接的挑戰就是,當駕駛員開啟了具有足夠自主決策權的智能駕駛的時候,如果發生了由于智能駕駛操作所帶來的車輛、道路、行人的損失,責任該如何界定?
對于簡單的工具,制造方往往不需要承擔過多的責任,只要他們生產的是法律范圍內允許銷售的產品。不會有人因為被刀砍傷就去起訴刀的生產廠商,責任只會追究到行為的發起者,即刀的使用者身上。
這在傳統汽車范圍內也是適用的,沒有智能駕駛的汽車發生事故所能追究的第一責任人很明顯就是某輛車的駕駛者,有很大一部分是由于其錯誤的決策導致了車禍的產生。但是如果是由于車輛的質量問題,比如剎車失靈,那么駕駛者還可以通過法律的手段去追究制造商的責任。
但是在智能汽車領域,這個問題變得稍微復雜了點,即大多數時候都是人在拿著刀,可一旦開啟了智能駕駛,刀也有可能有自己的“意識”,決定自己去砍人。在這種情況下主觀意愿的發出者并不是駕駛者,而是車輛本身。雖然目前已經出臺的一些法律,還是傾向于將責任歸于駕駛者,而駕駛者也可以酌情向制造商追責,但這個問題一定還會在相當長的一段時間內,伴隨著智能駕駛級別不斷的發展提高而被反復提及。
如果深入這一點,就會發現,即便是不發生事故,也會產生另外一個問題,我們姑且把它稱為“道路權”的問題。試想一下,在一個開放的路段,僅從車外的角度是難以分辨哪一輛車是正在進行智能駕駛,哪一輛車是由人來駕駛的。(雖然智能駕駛汽車可以設置一些警示的標志,但這不足以在根本上進行分辨)
這時,在同時行駛的車輛當中,由人駕駛車輛的“道路權”是否會因為“智能駕駛”的參與而受到侵犯。這么說似乎有些矯情,但通過對權責以及理性駕駛能力的分析,就會察覺到不對勁的地方。
對于人工駕駛來說,駕駛者擁有道路權,同時他也要為自己的駕駛行為負責,這毋庸置疑,權責非常清晰。但是對于智能駕駛來說,駕駛者開啟智能駕駛功能后,就會出現一個奇怪的情況,智能汽車而非駕駛者擁有道路權,即相關的駕駛行為是智能汽車發出的,而目前來看,智能汽車本身(因為它不是個法人)不需要為其駕駛行為負責,駕駛員必須要為最終的行為負責。
表面上看起來似乎問題不大,終歸都是駕駛員在負責,但這僅僅是在發生事故的情況下,責任可以落實到人。如果將視線定格在路上行駛的某一個片段,人工駕駛的駕駛員就會發現,跟他在道路上競爭的,竟然有很多是并不需要為自己的駕駛行為負責的“人工智能”。
這就好比我們在路上發現一個沒有民事能力的孩子,在有家長相伴的情況下開車一樣,作為跟他們同路的人,難免會產生擔憂,不管是這個孩子的駕駛水平如何。這并不是一個關于技術的問題,也不是一個關于法律的問題,而是一個關于權責分配的倫理問題。
這個背后,也就隱藏著所有人工智能發展最終都會遇到的問題——人工智能產品,在多大程度上,可以被當作一個法人來看待。
這個問題的本質是不同于其他的商品,人工智能產品具有獨立做決策的能力,并在此基礎上發出跟人類似的動作,這些動作可能傷及到其他人。那么這個人工智能是否有能力承擔這個責任。
但是更進一步的是,如果“人工智能”不具有反思意識,即不具備反思責任的能力,那么它就會是處于沒有道德或倫理壓力的控制下,即便是有足夠聰明的程序來指導它,也無法讓他稱為一個像人一樣的能因為責任問題而改變行為的一個主體。
這不免讓人聯想起阿西莫夫的機器人三定律:
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存;
即便是有著絕對的命令,機器也無法作為一個法人主體,因為控制他們的是指令而不是他們自己對道德的反思,即對責任的認識。也許現在說這個問題還很遙遠,但如今一輛智能汽車在路上“自動”行駛的時候,就一定會給其他人工駕駛的車輛,帶來一種權責的扭曲影響,在這種影響之下,人工駕駛的駕駛員都會發出一個自然而然的追問,如果這臺機器不能像我一樣負責,那就請他不要做決定,這是對我為自己行為負責這個規則的嚴重侵犯。
如果在一個充分自由的法制社會里,可能只要有一個人堅持人工駕駛,他就有權利去起訴所有的自動駕駛,要他們證明智能汽車可以為其行為負責,否則就可以禁止它們上路。但這只是一種理想情況的假設,現實社會也許人們都會慢慢的擁抱新技術、新產品,不過這也提醒我們,新技術新產品不僅帶來了便利,也會帶來相當復雜、甚至從來沒有過的倫理問題,也只有解決了這些,新的東西才會真的落地,稱為日常生活的一部分。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.