蘋果將讓iPhone偵測兒童色情照片 挑起隱私辯論

蘋果將讓iPhone偵測兒童色情照片 挑起隱私辯論 (圖:AFP)
蘋果將讓iPhone偵測兒童色情照片 挑起隱私辯論 (圖:AFP)

蘋果公司 (AAPL-US) 周四 (5 日) 宣布將 iPhone 軟體更新,以辨識和回報用戶手機中的兒童色情照片,但此舉卻挑起隱私辯論。

蘋果表示,軟體更新能加強顧客隱私保障,避免大量掃描公司伺服器上的照片 (蘋果目前並未這麼做)。但批評者擔心,透過建立一套可以舉發用戶手機非法內容的系統,蘋果以加密技術保障消費者隱私的堅定立場可能鬆動。

蘋果表示,這套軟體將使用密碼學 (cryptography) 和人工智慧 (AI) 的新技術,當用戶把照片儲存到 iCloud Photos 時,能藉由資料庫比對辨識出兒童色情照片。

蘋果研擬的流程是,如果用戶上傳照片達到一定數量,蘋果就會審查照片,若照片確實屬於非法內容,就會向非營利組織「美國失蹤兒童及童工保護中心」(NCMEC) 舉報。

包括 Alphabet、臉書、微軟等大型科技公司,都透過兒童色情照片資料庫對照的方式,檢查用戶手機的圖像。

蘋果表示,這套軟體只會偵測非法圖像,但不包括影像。照片若存在手機,沒有上傳到雲端,也不會被偵測。

執法機關認為,蘋果未能盡更多努力,幫助查緝利用加密技術隱藏行蹤的罪犯,最新舉措可視為蘋果對當局的回應。根據執法當局,恐怖份子經常利用兒童色情照片或加密溝通,取得數據。

有一派隱私和資安專家在推特上表示,蘋果的新系統最終可能擴大掃描更多被禁止的內容或是政治言論。但另一派資安專家認為,只要蘋果信守承諾,只偵測一小部分裝置內容,外部專家無法重複審查。


延伸閱讀

投資商城

免費體驗