新浪數(shù)碼訊 8月11日上午消息,蘋果公司的負(fù)責(zé)隱私的主管Erik Neuenschwander近期詳細(xì)介紹了該公司CSAM(兒童性虐待圖片)掃描系統(tǒng)中內(nèi)置的一些細(xì)節(jié),以減少外界對此功能的疑慮。
上周蘋果宣布將推出一系列的防止兒童色情犯罪功能,其中最有爭議的,他們將會(huì)掃描用戶的云端相冊,并將其數(shù)據(jù)與相關(guān)數(shù)據(jù)庫中的關(guān)鍵部分對比,如果符合并且經(jīng)過人工確認(rèn)后,會(huì)向相關(guān)部門報(bào)告。
CSAM檢測系統(tǒng)也因此引發(fā)爭議。作為回應(yīng),蘋果公司提供了許多如何在不危及用戶隱私的情況下掃描CSAM的詳細(xì)信息。
在接受外媒TechCrunch采訪時(shí),蘋果公司隱私負(fù)責(zé)人Erik Neuenschwander表示,該系統(tǒng)從一開始想到了防止政府過度干預(yù)和濫用。
一方面,該系統(tǒng)僅適用于美國,第四修正案的保護(hù)措施已經(jīng)防止非法搜查和扣押。另外,他適配iOS 15系統(tǒng),如果沒有更新iOS,也無法進(jìn)行;第三,它不能針對個(gè)人用戶提供特定的更新,只是將指紋數(shù)據(jù)(也就是部分關(guān)鍵特征)與政府或相關(guān)部門提供的數(shù)據(jù)庫比對。不在國家失蹤和受虐兒童中心提供的數(shù)據(jù)庫中的圖像也不會(huì)被標(biāo)記。
蘋果公司也有人工審核流程。如果iCloud帳戶被標(biāo)記為疑似收集非法CSAM材料,蘋果公司團(tuán)隊(duì)將審查該數(shù)據(jù),以確保機(jī)器是正確判斷的。
“所以這個(gè)假設(shè)(指的是濫用此功能)需要跳過很多條件,包括讓蘋果公司改變其內(nèi)部流程以引用,或者更改CSAM數(shù)據(jù)庫,我們不相信人們能夠在此基礎(chǔ)上在美國提出這個(gè)要求”
此外,Neuenschwander補(bǔ)充說,該系統(tǒng)僅在用戶啟用了iCloud照片時(shí)才有效。蘋果隱私負(fù)責(zé)人表示,如果用戶不喜歡該系統(tǒng),“他們可以選擇不使用iCloud照片,這樣系統(tǒng)的任何部分都無法運(yùn)行”。
在上周,蘋果公司也曾明確表示,它將拒絕任何政府組織試圖修改或?qū)⑾到y(tǒng)用于CSAM以外的用途:“Apple將拒絕任何這樣的要求,我們以前曾面臨類似要求,這些會(huì)降低用戶的隱私,因此堅(jiān)決拒絕了。我們將來還會(huì)繼續(xù)拒絕他們。這項(xiàng)技術(shù)僅限于探測存儲(chǔ)在iCloud中的相關(guān)圖片,我們不會(huì)同意任何政府?dāng)U展它用途的請求?!?/p>