© 2020 Plug Media Services Limited. All Rights Reserved. [6]
CSAM
iOS
iOS/iPadOS 15 自動檢測兒童性侵照片 Apple 新功能惹全球審查爭議
Apple 上星期公布一項保護兒童性侵犯的新計劃,計劃自動檢測用戶透過 Message 傳送的信息、儲存在 iCloud 上的照片和透過 Siri 進行的搜尋,如果被判斷為「兒童性虐待材料( CSAM )」的話,會發出警告,甚至會向保護兒童組織和有關當局舉報。不過計劃一出即引來爭議,有人認為這功能最終有可能被極權國家用作緝捕政治犯。而 Apple 就急急作出澄清解話。
新聞
用 AI 保護兒童 Google 開放性侵兒童圖像檢測 API
香港早已立例禁止在網上散布性侵犯兒童的內容,而以機械學習技術而知名的 Google 也有在這一方面出力。昨日公布推出一個針對兒童性侵犯內容的檢測 API ,民間組織、 NGO 等都可以申請使用。
最新文章
或令 Apple Watch 鎖死?Apple 撤回 watchOS 11.1 Beta 3 測試
日前 Apple 再撤回包括 watchOS 11.1 Beta 3 測試版,與及 HomePod 軟件 18.1 Beta 2 版本。據了解上述兩個測試版本或會令 Apple Watch 及 HomePod 被鎖死...