Apple確認未來將向第三方應用開放兒童安全功能

來源:cnbeta
作者:cnbeta
時間:2021-08-10
2595
針對近期爭議較大的兒童安全功能,Apple 今天邀請多名記者舉辦了一場問答活動。在本次活動中,Apple 確認未來將向第三方應用程序開放這些功能。在即將到來的 iOS 15、iPadOS 15、macOS Monterey 以及 watchOS 8 系統(tǒng)中,Apple 引入了 3 項兒童安全功能。

針對近期爭議較大的兒童安全功能,Apple 今天邀請多名記者舉辦了一場問答活動。在本次活動中,Apple 確認未來將向第三方應用程序開放這些功能。在即將到來的 iOS 15、iPadOS 15、macOS Monterey 以及 watchOS 8 系統(tǒng)中,Apple 引入了 3 項兒童安全功能:

0kd00hsy.jpg

● Messages 應用

iPhone、iPad 和 Mac 上的 Messages 應用程序中的可選通信安全功能可以在接收或發(fā)送色情照片時警告兒童及其父母。啟用該功能后,Apple 表示 Messages 應用程序將使用設備上的機器學習來分析圖像附件,如果照片被確定為色情,照片將自動模糊并警告孩子。

● 掃描 iCloud 文件

Apple 將能夠檢測存儲在 iCloud 照片中的已知兒童性虐待材料 (CSAM) 圖像,從而使 Apple 能夠將這些情況報告給國家失蹤和受虐兒童中心 (NCMEC), 這是一個與該機構合作的非營利組織與美國執(zhí)法機構。Apple 今天證實,該過程僅適用于上傳到 iCloud 照片的照片,而不適用于視頻。

● 額外資源

Apple 將通過提供額外資源來幫助兒童和父母保持在線安全并在不安全的情況下獲得幫助,從而擴展跨設備的 Siri 和 Spotlight 搜索指南。例如,詢問 Siri 如何報告 CSAM 或兒童剝削的用戶將被指向有關在何處以及如何提交報告的資源。

雖然沒有發(fā)布任何官方公告,不過 Apple 表示通過向第三方擴展兒童安全功能,以便用戶得到更廣泛的保護。Apple 沒有提供任何具體示例,但一種可能性是通信安全功能可用于 Snapchat、Instagram 或 WhatsApp 等應用程序,以便模糊兒童收到的色情照片。

另一種可能性是,蘋果已知的 CSAM 檢測系統(tǒng)可以擴展到第三方應用程序,這些應用程序將照片上傳到 iCloud 照片以外的其他地方。

Apple 沒有提供何時可以將兒童安全功能擴展到第三方的時間表,并指出它仍然需要完成這些功能的測試和部署,該公司還表示需要確保任何潛在的擴展不會破壞隱私屬性或功能的有效性。

原文鏈接:點擊前往 >
文章來源:cnbeta
版權說明:本文內容來自于cnbeta,本站不擁有所有權,不承擔相關法律責任。文章內容系作者個人觀點,不代表快出海對觀點贊同或支持。如有侵權,請聯(lián)系管理員(zzx@kchuhai.com)刪除!
掃碼關注
獲取更多出海資訊的相關信息
個人VIP
小程序
快出海小程序
公眾號
快出海公眾號
商務合作
商務合作
投稿采訪
投稿采訪
出海管家
出海管家