每當一家公司在聖誕節和新年期間發布報告時,此時資訊的吸引力特別低,媒體都會對它抱有一定程度的懷疑。
本週的情況就是這樣, X的最新效能更新。 由於對該平台修訂後的內容審核方法的持續擔憂,該方法導致應用程式中仍然活躍著更多攻擊性和有害的帖子,促使更多廣告合作夥伴停止其X 活動,該公司目前正在尋求澄清其在一個關鍵領域的努力,即伊隆馬斯克本人已將其列為優先事項。
X 的最新更新重點是 消滅兒童性虐待材料(CS是)該公司聲稱,在過去 18 個月中,透過改進流程,這一數字已大幅減少。 第三方報告與此相矛盾,但從原始數據來看,X 似乎在檢測和解決 CSAM 方面做了更多工作。
儘管這裡的細節是相關的。
首先,X 表示將暫停更多違反 CSAM 規則的帳戶。
按照 X:
「從 2023 年 1 月到 11 月,X 因違反我們的 CSE 政策而永久暫停了超過 1,100 萬個帳戶。 作為參考,2022 年全年,Twitter 暫停了 230 萬個帳戶。”
因此,X 正在採取更多違規行為,儘管這也包括錯誤的暫停和回應。 這仍然比做得更少更好,但這本身可能並不能很好地反映這方面的改進。
X 也表示,它報告了更多 CSAM 事件:
「2023 年上半年,X 總共向 NCMEC CyberTipline 發送了 43 萬份報告。 2022 年全年,Twitter 發送了超過 98,000 份報告。”
這也令人印象深刻,但話又說回來,X 現在也採用「全自動」NCMEC 報告,這意味著每個檢測到的貼文不再接受人工審核。 因此,隨後報導了更多內容。
同樣,您會認為這會帶來更好的結果,因為更多的報告應該等於更少的風險。 但如果沒有 NCMEC 的數據證實這類報告的有效性,這個數字也不能完全顯示有效性。 因此,其報告數量正在上升,但對其方法的更廣泛有效性卻缺乏深入的了解。
例如,X 曾經一度聲稱透過阻止使用已識別的主題標籤,一夜之間幾乎消除了 CSAM。
X 在這裡可能指的是:
「我們不僅可以更快地檢測到更多不良行為者,還可以建立新的防禦措施,主動降低包含此類內容的貼文的被發現率。 自 2022 年 12 月以來,我們最近實施的一項此類措施已將已知兒童性虐待材料 (CSAM) 模式的成功搜尋數量減少了 99% 以上。”
對於已識別的標籤來說可能是這樣,但專家聲稱,一旦X 將某些標籤列入黑名單,CSAM 販子就會轉向其他標籤,因此雖然某些搜尋的活動可能有所減少,但很難說這也減少了非常有效。
但數字看起來不錯,對吧? 當然,似乎正在做更多的事情,並且 CSAM 在應用程式中受到限制。 但如果沒有明確的、擴展的研究,我們真的無法確定。
如前所述,第三方見解表明,根據 X 的新規則和流程,CSAM 在應用程式中已變得更廣泛。 早在二月份,《紐約時報》就進行了一項研究,以揭示應用程式中 CSAM 的可訪問率。 研究發現,內容很容易找到,X 對此類報告的行動速度比過去的 Twitter 慢(使其在應用程式中的活動時間更長),同時 X 也未能向相關機構充分報告 CSAM 實例資料(有問題的機構之一後來指出X 有所改善,這主要歸功於自動化報告)。 NBC 的另一份報導也發現了同樣的情況,儘管馬斯克宣稱他正在將 CSAM 檢測作為首要任務,但 X 的大部分行動都只是表面層面的,並沒有產生真正的效果。 事實上,馬斯克也裁掉了負責這項元素的大部分團隊成員,這也可能加劇了問題,而不是改善了問題。
更糟糕的是,X 最近恢復了一位著名右翼影響者的帳戶,該人士此前因分享 CSAM 內容而被禁止。
然而,與此同時,Elon and Co. 正在推動解決 CSAM 問題的行動,將其作為對品牌撤回 X 廣告支出的關鍵回應,因為至少在其看來,其數字表明此類擔憂是無效的,因為它事實上,我們正在採取更多措施來解決這個問題。 但這些擔憂大多與馬斯克自己的貼文和評論有關,而不是專門與 CSAM 相關。
因此,這是一份在奇怪時間分享的奇怪報告,看似強調了 X 不斷擴大的努力,但並沒有真正解決所有相關問題。
當你還考慮到 X Corp 正在積極努力阻止加州一項新法律要求社交媒體公司公開披露他們如何在其平台上進行內容審核時,完整的資訊似乎並沒有加起來。
本質上,X 是在說它正在做更多的事情,它的數字也反映了這一點。 但這並不能明確表明 X 在限制 CSAM 的傳播方面做得更好。
但從理論上講,它應該透過對更多貼文採取更多行動(無論是否自動化)來限制應用程式中 CSAM 的流量。
數據無疑表明 X 正在這方面做出更大的推動,但其有效性仍然存在疑問。