更多

    iOS/iPadOS 15 自動檢測兒童性侵照片  Apple 新功能惹全球審查爭議

    Mickey Chan
    Mickey Chan
    愛模擬飛行、希望終有一日回到單車上的宅,眼鏡娘控。座右銘: 1.膽固醇跟美味是成正比的; 2.所有人都可以騙,但絕對不能騙自己; 3.賣掉的貨才是錢,不賣的收藏品不值一文; 4.踩單車,是為了吃更多美食! 5.正義的話語,不一定出自正義之人的口;

    Apple 上星期公布一項保護兒童性侵犯的新計劃,計劃自動檢測用戶透過 Message 傳送的信息、儲存在 iCloud 上的照片和透過 Siri 進行的搜尋,如果被判斷為「兒童性虐待材料( CSAM )」的話,會發出警告,甚至會向保護兒童組織和有關當局舉報。不過計劃一出即引來爭議,有人認為這功能最終有可能被極權國家用作緝捕政治犯。而 Apple 就急急作出澄清解話。

    3 功能攔截兒童性侵內容

    首先介紹一下這三個保護兒童免受性侵犯的新功能。第一個個功能是假如有人以 Message 向兒童發送色情照片,色情照片會變成灰色,並會發出警告。如果兒童還想點擊觀看的話,就會發出「如果你決定要觀看的話,會向你父母會收到通知以確保你沒問題」的警告信息。而由兒童發送色情照片亦會同樣處理。這個功能使用裝置內人工智能進行辨識,所以 Apple 不會看到信息內容。這個功能將於今年稍後推出的 iOS/iPadOS 15 和 macOS Monterey 上更新,向已在 iCloud 上設定家庭成員的用戶推出。

    向兒童或由兒童發送色情照片,手機會先發出警告提示,如果兒童仍然要觀看或發送,就會通知家長。
    向兒童或由兒童發送色情照片,手機會先發出警告提示,如果兒童仍然要觀看或發送,就會通知家長。

    第二個功能是透過 iOS/iPadOS 來主動感測美國用戶存放在 iCloud Photos 上的已知 CSAM 照片。如果有一定數量照片被判斷為已知 CSAM 的話,就會暫停有關帳戶,並且通知「美國國家兒童失蹤與受虐兒童援助中心( NCMEC )」跟進。如果用戶認為是誤判的話,可以提出恢復帳戶。

    iCloud Photo 上兒童色情照片的比對程序是在手機上進行,而即使要進行人工審查,也只會檢查比對照片的「安全票證」,而並非直接比對照片。
    iCloud Photo 上兒童色情照片的比對程序是在手機上進行,而即使要進行人工審查,也只會檢查比對照片的「安全票證」,而並非直接比對照片。

    這個功能並非直接掃描用戶照片的內容,而是以 NCMEC 提供的已知 CSAM 照片雜湊碼數據庫,在用戶裝置上進行比對。一旦發現有多張 CSAM 照片的話, Apple 就會進行人手確認,但也不是直接查看照片,而是查看與 CSAM 資料庫一致的照片的「安全票證」,確保沒有侵犯私隱,或者進一步傷害兒童。

    第三個功能是在 Siri 上,如果有人搜尋有關 CSAM 的詞語的話,就會發出警告,指出手機上裝有舉報網上剝削兒童的系統,或指出兒童性侵材料是違法的,並提供求助連結。這功能會在今年稍後向 iOS/iPadOS 15 、 watchOS 8 和 macOS Monterey 推出更新。

    用 Siri 來搜尋兒童色情資料的話也會遭受警告。
    用 Siri 來搜尋兒童色情資料的話也會遭受警告。

    保安專家擔憂功能被政治濫用

    雖然這些功能原意是好的,不過一些保安專家就認為 Apple 打算向全世界推出大規模審查。他們指如果今日 Apple 能掃描兒童色情內容的話,明天就能掃描任何事情。他們擔心政府最終會強迫 Apple 加入非 CSAM 照片的雜湊碼到資料庫來作不當目的,例如打壓政治異見分子。

    就著這些爭議, Apple 急急向傳媒澄清,有關計劃首先只限於美國,並在擴展系統時,會對各國家逐一進行法律評估。 Apple 現時並沒有將系統擴展至全球的日程表。

    Apple 同時指出亦有人支持他們的做法,例如美國家庭線上安全研究所的 CEO Stephen Balkam 就指由於家長在保護孩子上網方面面臨的挑戰,科技公司必須不斷更新和改善他們的安全工具,以應對新的風險和實質傷害。

    您會感興趣的內容

    相關文章