蘋果曾經是用戶隱私保護狂魔 如今卻變了

長久以來Apple一直將保護用戶隱私作為公司當中最重要的一件事情,并且我相信,蘋果對于用戶隱私的保護工作是每一位蘋果用戶都有目共睹的。

甚至說蘋果對于用戶隱私的保護稍微有那么一點過頭了。

還記得在2015年,某個恐怖分子被美國當局擊斃,但是當FBI想要查看恐怖分子手中蘋果行動電話內容的時候卻遇到了重重困難,為此FBI找到了Apple,希望能獲得Apple的幫助來查看行動電話當中的內容。

但是Apple卻表示,我們不能讓你們(FBI)查看死掉的恐怖分子行動電話當中的詳細內容,我們要保護每一位用戶的隱私,

并且蘋果也一直把用戶隱私保護作為自己宣傳時的一個重點內容。

在2020年9月份的時候,蘋果甚至還發布了一個廣告——Over Sharing(過度分享),來向廣大消費者介紹iPhone的隱私保護是多么的厲害,視訊描述了人們尷尬地與陌生人分享他們的個人資訊,例如信用卡號,登入詳細資訊和網路瀏覽歷史記錄。

蘋果表示:“有些事情不應該共享。”“這就是為什么 iPhone 旨在幫助您控制資訊并保護隱私的原因。”

蘋果一再認為用戶隱私是一項“基本人權”,是公司的“核心價值觀”,在2019年CES展的時候,蘋果甚至包下來了一個酒店的巨幅廣告位置,

在廣告上寫著“What happens on your iPhone stays on your iPhone”(在你iPhone上面發生的事情只會留在你的iPhone上面),以此巨幅的廣告表達Apple對用戶隱私的重視。

你看到這里是不是就會感覺到蘋果對于每一位用戶隱私的重視程度是非常高的,比某些安卓行動電話不知道好到哪里去了,下載一個簡單的點外賣APP就會向你索要38項用戶權限,

甚至還要識別你的身體活動,看到這里我一個安卓用戶實名羨慕蘋果對于用戶隱私的重視程度了,

但是這樣的重視程度會一直持續下去嗎?

答案是不會的,就在前幾天蘋果公布了一項新的技術,這項技術打破了其一直在堅持的所謂的重視用戶隱私。

蘋果于近日發布了一項全新的用于掃描檢測“兒童性虐內容(Child Sexual Abuse Material)”的端側工具,那什么是端側掃描呢,意思就是掃描工作將在用戶設備上完成,

為了完成“兒童性虐內容”的檢測,iOS與iPadOS將搭載一項最新技術,這項技術可以使蘋果檢測在各類蘋果設備上面接收、保存或者發送的照片提取哈希值。

然后蘋果會用提取到的哈希值和“全國失蹤和受剝削兒童中心(NCMEC)”和其他兒童安防組織提供的已知兒童性虐圖像的哈希(散列)資料庫進行比對。

以此來驗證某些照片或者圖片是不是屬于兒童性虐內容,蘋果表示這個資料庫將被轉為一組不可讀的散列,安全地存儲在用戶的設備里,之后在用戶設備之中進行比對。

并且當用戶在iMessage 上收到或者發送照片時,系統也會對照片完成監測工作,

如果系統認為這張照片屬于露骨性照片時則會模糊處理,iMessage會警告兒童,并再次確認兒童是不是想繼續瀏覽或者發送露骨性照片,

除此之外,兒童再次預覽或者發送露骨性照片,APP還會自動通知家長。


美國蘋果官網截圖

你看到這里是不是會覺得,嗯!這些檢測都是為了孩子的身心健康著想啊,而且檢測工作都是在本地完成的,這跟用戶隱私有什么關系呢?

上面這些內容看起來還算是正常,不急,我們繼續往下看。同時在蘋果的介紹中還可以發現,蘋果也會使用類似的算法對用戶發送到iCloud上面的照片進行檢測,在上傳到服務器之前,會給文件進行一連串的加密工作。

如果上傳到iCloud照片完成哈希值的比對之后,認為照片存在兒童性虐內容的話,蘋果的服務器就會對照片進行解密,并且由人工進行查驗。

有專家認為,盡管蘋果提議CSAM方案的初心是好的,且針對此類違法行為的打擊是絕對正義的。

但是這一整套方案繞過了原本旨在加強用戶隱私的端到端加密方案,并且在方案之中還是引入了一個后門,可能會存在嚴重的安全和隱私風險。

雖說最近蘋果相關負責人多次聲明,CSAM方案不會導致其軟硬件留下后門,并且會防止政府過度干預和濫用,但是對于用戶來說只要這項技術實裝,多少都會讓自己不放心,

蘋果將在不遠的將來偷偷的“欣賞”你系統里面存儲著的照片,并且最近有關于這項新技術的討論越來越多,但是絕大多數的討論都是圍繞著用戶隱私還是不是蘋果最重視的事情,

之前說的什么“What happens on your iPhone stays on your iPhone”恐怕將會成為廣大蘋果用戶心中最美好的愿景,

哦對了!還有一點你必須要知道這項新技術將在iOS 15系統中首發,尤為重要的是這項技術目前只會在美國大陸上線,對于咱們大陸消費者來說沒有這么多需要擔心的,

0 条回复 A文章作者 M管理員
    暫無討論,說說你的看法吧