在新的調查發現許多虐待兒童內容的實例仍在 Meta 的網路中傳播之後,Meta 的 CSAM 執法工作面臨更多問題。
根據《華爾街日報》報道,獨立研究小組,包括史丹佛網路觀察站和 加拿大兒童保護中心追蹤了 Facebook 和 Instagram 上傳播兒童性虐待事件的多個團體實例。
據《華爾街日報》報:
“測試表明,這個問題不僅限於 Instagram,還包括更廣泛的 Facebook 群組,包括明確以兒童性化為中心的大型群組。 Meta 的發言人表示,該公司在 Facebook 的搜尋結果中隱藏了 19 萬個群組,並禁用了數以萬計的其他帳戶,但這項工作的進展並不如預期的那麼快。
更令人不安的是,一項一直在追蹤 CSAM 的調查 Instagram 網路(其中一些擁有超過 1000 萬粉絲)發現,即使多次向 Meta 管理員舉報,這些團體仍繼續在應用程式中直播兒童性虐待的影片。
對此,Meta 表示,它現在正在與其他平台合作,以改進他們的集體執法工作,同時它也改進了識別攻擊性內容的技術。 Meta 還擴大了其網路檢測工作,例如識別成年人何時試圖與孩子接觸,該流程現在也被部署用於阻止戀童癖者在其應用程式中相互聯繫。
但這個問題仍然是一個持續的挑戰,因為 CSAM 參與者根據 Meta 的努力修改其方法來逃避檢測。
CSAM 是所有社交和訊息平台所關注的關鍵問題,尤其是 Meta,由於其龐大的規模和影響力,在這方面承擔著更大的責任。
Meta 自己關於發現和刪除虐待兒童材料的統計數據強化了這種擔憂。 2021 年全年,Meta 檢測並報告 2,200 萬張虐待兒童圖像 國家失蹤和受虐兒童中心 (NCMEC)。 2020 年,NCMEC 還報告稱 Facebook 負責 美國科技公司報告的6,900萬張兒童性虐待圖片中的94%。
顯然,Meta 的平台促進了大量此類活動, 這也被認為是反對 Meta 逐漸轉向在所有訊息應用程式中預設啟用完全訊息加密的關鍵原因之一。
啟用加密後,沒有人能夠闖入這些群組並阻止此類內容的分發,但與此相反的是普通人希望擁有更多隱私,並限制第三方窺探他們的私人聊天。
這值得冒擴大 CSAM 分發的潛在風險嗎? 這是監管機構一直在試圖評估的權衡,而 Meta 仍在繼續推進該項目,該項目很快就會看到 Messenger、IG Direct 和 WhatsApp 中的所有訊息都隱藏在任何外部視圖之外。
這是一個艱難的平衡,它強調了社交平台始終在適度和隱私之間遊走的微妙界限。 這是伊隆馬斯克的主要問題之一,他一直在推動在他的社交應用程式中允許更多的言論,但這也帶來了自己的失敗,在他的例子中,廣告商選擇不在他的應用程式中顯示他們的促銷活動。
沒有簡單的答案,總是會遇到困難的考慮,特別是當公司的最終動機與利潤一致時。
事實上,根據《華爾街日報》報道,Meta 在今年稍早不斷增加的收入壓力下,指示 其誠信團隊優先考慮減少「廣告商摩擦」的目標,同時避免可能「無意中限制我們產品的良好使用」的錯誤。
這裡面臨的另一部分挑戰是,Meta 的推薦系統透過幫助他們找到相關的群組和人員,無意中連接了更多志同道合的用戶,而致力於最大化使用的 Meta 沒有動力在這方面限制其推薦。
如前所述,Meta 始終致力於限制 CSAM 相關資料的傳播。 但隨著 CSAM 團體更新他們的溝通方式以及他們使用的術語,Meta 的系統有時無法偵測並避免基於類似使用者活動的相關推薦。
最新報告發布之際,Meta 在歐洲面臨新的審查,歐盟 監管機構要求提供更多有關其對 Instagram 上兒童安全問題的回應的詳細信息,以及 Meta 到底採取了哪些措施來打擊應用程式中的 CSAM 內容。
作為該地區新 DSA 法規的一部分,Meta 可能會面臨巨額罰款,或在歐盟面臨進一步製裁。
它仍然是所有社交應用程式的關鍵焦點和一個具有挑戰性的領域,Meta 現在面臨著更大的壓力來發展其係統並確保其應用程式具有更高的安全性。
歐盟委員會給 Meta 一個最後期限,即 12 月 22 日,以概述其在這方面不斷發展的努力。