近段時間,蘋果因為iOS 15即將加入的一項新功能遭到許多用戶質疑,這是一種能檢測設備內的兒童不雅照片,包括虐童、有色制品等內容的本地算法,意在保護兒童。
但是,這就引發了大家對隱私問題的擔憂,畢竟如此一來用戶的相冊照片就會被上傳至云端,被后臺人員查看,引發了一輪激烈的討論。
蘋果曾對此解釋稱,他們不會掃描機主的整個照片庫來尋找虐童圖片,而是使用密碼學把圖片與美國國家失蹤與受虐兒童中心提供的已知資料庫進行比對,但是一些用戶依然存在一些焦慮和不滿。
Apple軟體工程高級副總裁Craig Federighi今天在接受《華爾街日報》的采訪時,為該公司計劃中有爭議的兒童安全功能進行了辯護,透露了一些關于Apple掃描用戶照片庫中的兒童性虐待材料(CSAM)保障措施的新細節。
Craig Federighi再次表示,該檢測算法全程都會在行動電話本地完成,例如,用戶需要在其照片庫中滿足約30個CSAM內容的匹配,蘋果才會被提醒,而且只有當用戶達到30張已知兒童色情圖片的匹配門檻時,蘋果才會知道用戶的賬戶和這些圖片的情況。
需要注意的是,蘋果在這個全程中,都不會知道用戶相冊中圖片的具體資訊,只是本地算法在通過比對后,會告訴蘋果這部行動電話中可能有相關內容。
另外,大陸用戶并不需要關心這個問題,因為蘋果已經明確表示,這套系統只在美國提供,并且只有在用戶打開iCloud照片后才能啟用。