青少年在社交平台受到騙徒威脅傳送裸露照片的新聞時有所聞,為了進一步保障未成年人士免受威脅,Meta 宣布在 Instagram 內展開自動蒙糊訊息 (DM) 中的裸露照片測試。
這個預設針對 18 歲以下青少年的功能不單會在收到懷疑是裸露照片的訊息時,自動將照片蒙糊化,即使用戶自己發送裸露照片也會被蒙糊。而成年用戶也會收到提示,可以選擇開啟這個功能。
當用戶應對方要求,想發送裸露照片時,系統會先蒙糊照片,同時顯示「相片可能含有裸露成分」的訊息,還會彈出警告提示,提醒用戶分享敏感照片時要小心,同時提示用戶不要對不回覆對方感到壓力,並會顯示封鎖對方的方法。
除此之外,Meta 還會事先找出可能會對其他用戶進行性恐嚇的帳戶,避免青少年與這些帳戶有接觸,又向可能受到恐嚇的用戶提供求助資訊。
Meta 表示,由於檢測裸露照片是在用戶的裝置上進行,除非用戶舉報,否則 Meta 也不會看到那些照片內容的。