更多

    CSAM

    iOS/iPadOS 15 自動檢測兒童性侵照片  Apple 新功能惹全球審查爭議

    Apple 上星期公布一項保護兒童性侵犯的新計劃,計劃自動檢測用戶透過 Message 傳送的信息、儲存在 iCloud 上的照片和透過 Siri 進行的搜尋,如果被判斷為「兒童性虐待材料( CSAM )」的話,會發出警告,甚至會向保護兒童組織和有關當局舉報。不過計劃一出即引來爭議,有人認為這功能最終有可能被極權國家用作緝捕政治犯。而 Apple 就急急作出澄清解話。

    用 AI 保護兒童 Google 開放性侵兒童圖像檢測 API

    香港早已立例禁止在網上散布性侵犯兒童的內容,而以機械學習技術而知名的 Google 也有在這一方面出力。昨日公布推出一個針對兒童性侵犯內容的檢測 API ,民間組織、 NGO 等都可以申請使用。

    最新文章

    理大研發主動排汗運動衣 iActive 快速排走汗水避免黐𣲷𣲷

    業界一直改進運動衣的物料,提升運動員的表現。過去的方法都是加強吸走汗水的能力,但卻令衣服變得重。理大時裝及紡織學院研發主動排汗智能運動衣 iActive,改用直接排水技術,仿效樹根傳送水分系統和皮膚出汗機制,施加低電壓排出汗水,令衣服更乾爽更輕不再黐𣲷𣲷。