你肯定也看過蘋果和岳云鵬合作的廣告,其中最核心的主張就是:
力保隱私安全,這很 iPhone。
蘋果是這么說(shuō)的,確實(shí)也是這么做的。只是,當(dāng)「隱私」和「道德」 被放在天平的兩端時(shí),即便是蘋果,也會(huì)面臨進(jìn)退維谷的難題。
▲ 蘋果和岳云鵬合作廣告海報(bào). 圖片來(lái)自:Apple
據(jù) 9to5mac 報(bào)道,蘋果在 iOS 26 的開發(fā)者預(yù)覽版中,推出了 FaceTime 的裸露檢測(cè)功能,意在檢測(cè)視頻通話中的不當(dāng)裸露內(nèi)容。
據(jù)悉,蘋果將通過設(shè)備端側(cè)的 AI 算法來(lái)實(shí)時(shí)識(shí)別通話中的裸露內(nèi)容,當(dāng)系統(tǒng)識(shí)別出可能的裸露畫面時(shí),它會(huì)立即暫停視頻通話并顯示警告。
蘋果表示,該功能的設(shè)計(jì)初衷,是為了在兒童賬戶上應(yīng)用,給青少年提供一個(gè)更加安全的數(shù)字社交環(huán)境。
▲ FaceTime 凍結(jié)界面. 圖片來(lái)自:9to5Mac
該功能源自于蘋果在幾年前推行的 CSAM(兒童性虐待材料)掃描計(jì)劃。但不知道出于什么考慮,這項(xiàng)功能在 iOS 26 開發(fā)者版本中被擴(kuò)大到覆蓋所有年齡的用戶。也就是說(shuō),成人用戶也被「保護(hù)」起來(lái)了。
盡管蘋果強(qiáng)調(diào)所有識(shí)別工作都在設(shè)備本地處理,數(shù)據(jù)不會(huì)上傳至云端,但年齡覆蓋擴(kuò)大的情況還是在社交媒體上引發(fā)廣泛爭(zhēng)議。一位名為 krazygreekguy 的用戶在 9to5mac 上評(píng)論道:
我理解背后的想法,但他們無(wú)權(quán)對(duì)成年人實(shí)施這種控制。沒有任何組織有權(quán)侵犯人們的隱私。
▲ 蘋果宣傳圖. 圖片來(lái)自:Apple
換言之,人們擔(dān)心這種年齡覆蓋的擴(kuò)大是一種蘋果獨(dú)有權(quán)力的擴(kuò)張,以至于到了過度干預(yù)私人生活的境地,甚至可能擴(kuò)大到和色情意圖完全無(wú)關(guān)的場(chǎng)景。
試想一下,你正在和家里的小孩視頻通話,只是因?yàn)楣庵蜃踊蛘哒{(diào)整衣物,就可能會(huì)被系統(tǒng)誤判為不當(dāng)裸露,而導(dǎo)致視頻被攔截:
難道我的 iPhone 認(rèn)為我是個(gè)變態(tài)?
▲ FaceTime. 圖片來(lái)自:Apple
事實(shí)上,F(xiàn)aceTime 已經(jīng)問世 14 年,作為蘋果生態(tài)的「元老級(jí)」功能,這也不是它首次引起爭(zhēng)議。2019 年,F(xiàn)aceTime 就曾因?yàn)榧夹g(shù)漏洞,讓用戶在未接通的情況下聽到對(duì)方通話的聲音。雖然蘋果迅速修復(fù)了漏洞,這也讓很多人對(duì)蘋果的隱私宣傳話術(shù)之下的真實(shí)保護(hù)能力,產(chǎn)生了疑慮。
▲ 蘋果宣傳圖. 圖片來(lái)自:Apple
作為公司的核心價(jià)值觀,蘋果對(duì)用戶隱私保護(hù)方面一直很重視。
長(zhǎng)期關(guān)注蘋果的人,可能會(huì)對(duì) 2015 年蘋果硬剛 FBI 的事件記憶猶新——當(dāng)年,在加州圣貝納迪諾槍擊案后,F(xiàn)BI 為了獲取恐怖活動(dòng)信息,要求解鎖涉案兇手使用的 iPhone,但遭到蘋果拒絕。當(dāng)時(shí),蘋果 CEO 蒂姆·庫(kù)克表示:后門一旦開了,就關(guān)不上了,將會(huì)危及所有用戶的安全與隱私。
▲ FaceTime 界面. 圖片來(lái)自:Apple
但即便如此,蘋果也曾因隱私問題引發(fā)不小一些爭(zhēng)議。比如前面提到的 CSAM 掃描計(jì)劃,在推出時(shí)同樣備受批評(píng)。
從 2021 年的 iOS 15 開始,蘋果通過本地設(shè)備上的 NeuralHash 技術(shù),將用戶上傳到 iCloud 的照片與美國(guó)權(quán)威機(jī)構(gòu)維護(hù)的 CSAM 數(shù)據(jù)庫(kù)進(jìn)行哈希值比對(duì),當(dāng)超過預(yù)設(shè)閾值的情況發(fā)生,蘋果就會(huì)解密相關(guān)數(shù)據(jù)并進(jìn)行人工審核,確認(rèn)后將禁用賬戶,并向美國(guó)國(guó)家失蹤和受虐兒童中心(NCMEC)舉報(bào)。
蘋果聲稱這一功能的用意是發(fā)現(xiàn)和揪出兒童性犯罪者,在技術(shù)上最大限度保護(hù)用戶隱私,避免誤判和濫用。
但各路隱私保護(hù)組織和安全專家質(zhì)疑蘋果是否會(huì)背離其一貫的隱私保護(hù)承諾,畢竟 CSAM 掃描究其根本還是識(shí)別了用戶上傳的隱私信息。面對(duì)壓力,蘋果宣布推遲該功能的發(fā)布,轉(zhuǎn)而推出其他兒童保護(hù)措施,如信息通信安全和 Siri 搜索干預(yù)功能。
對(duì)于蘋果來(lái)說(shuō),「道德」與「隱私」也會(huì)出現(xiàn)不可兼得的情況。
回到剛開始說(shuō)的 FaceTime 裸露檢測(cè):從蘋果的初衷來(lái)看,這是一個(gè)為了更好保護(hù)青少年而推出的安全特性,它有助于防止青少年在視頻通話中接觸到不適當(dāng)?shù)穆懵秲?nèi)容——類似的手機(jī)視頻通話性騷擾和欺詐案例,全球范圍內(nèi)不勝枚舉。坐擁十幾億用戶,蘋果確實(shí)也該承擔(dān)這樣的社會(huì)責(zé)任。
但另一方面,這種 「自動(dòng)干預(yù)」 的邊界在哪里,仍然是一個(gè)重要的問題。
當(dāng)公共道德和個(gè)人隱私被擺在天平的兩端時(shí),如何權(quán)衡利弊,并做出「正確」的決策。這或許會(huì)在未來(lái)很長(zhǎng)一段時(shí)間里,都困擾著蘋果。
本文作者:周芊彤、肖欽鵬
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.