LinkedIn 推出了新的內容審核框架,可推進審核隊列的最佳化,將偵測政策違規行為的時間縮短 60%。 一旦該技術變得更加可用,該技術可能會成為內容審核的未來。
LinkedIn 如何審核內容違規行為
LinkedIn 擁有內容審核團隊,負責手動審查潛在的違反政策的內容。
他們結合使用人工智慧模型、LinkedIn 會員報告和人工評論來捕獲有害內容並將其刪除。
但問題的規模是巨大的,因為每周有數十萬篇文章需要審查。
過去,採用先進先出 (FIFO) 流程時,往往會發生的情況是,所有需要審核的文章都在佇列中等待,這使得實際的攻擊性內容需要大量時間才能審核和刪除。
因此,使用 FIFO 的後果是使用者接觸到有害內容。
LinkedIn 描述了先前使用的 FIFO 系統的缺點:
「……這種方法有兩個明顯的缺點。
首先,並非所有經過人工審核的內容都違反我們的政策; 很大一部分被評估為不侵權(即刪除)。
這會佔用審閱者審閱實際侵權內容的寶貴頻寬。
其次,當文章以先進先出的方式進行審核時,侵權內容可能需要更長的時間才能檢測到它是否是在非侵權內容之後被攝取的。”
LinkedIn 設計了一個自動化框架,使用機器學習模型來優先考慮可能違反內容政策的內容,將這些項目移至隊列的前面。
這項新流程有助於加快審核流程。
新框架使用XGBoost
新框架使用 XGBoost 機器學習模型來預測哪些內容項目可能違反政策。
XGBoost 是 Extreme Gradient Boosting 的縮寫,它是一個開源機器學習函式庫,可協助對資料集中的項目進行排名和分類。
這種類型的機器學習模型 XGBoost 使用演算法來訓練模型,以在標記的資料集中(標記為了解哪個內容項侵權的資料集)中尋找特定模式。
LinkedIn 使用了這個確切的過程來訓練其新框架:
“這些模型在內容審查隊列中的先前人類標籤數據的代表性樣本上進行訓練,並在另一個過時樣本上進行測試。”
經過訓練後,該模型可以識別在該技術應用中可能侵權且需要人工審核的內容。
XGBoost 是一項最先進的技術,在基準測試中發現,它在此類用途中非常成功,無論是在準確性還是所需的處理時間方面,都優於其他類型的演算法。
LinkedIn 描述了這種新方法:
「透過這個框架,進入審核隊列的內容將由一組人工智慧模型進行評分,以計算其違反我們政策的可能性。
不違規的可能性較高的內容會被優先考慮,為人工審核人員節省頻寬,而違反政策的可能性較高的內容會優先於其他內容,以便更快地檢測和刪除」。
對審核的影響
LinkedIn 報告稱,新框架能夠自動對審核隊列中約 10% 的內容做出決策,LinkedIn 稱其準確度「極高」。 人工智慧模型的準確度超過了人類審閱者。
值得注意的是,新框架將捕獲違規內容的平均時間縮短了 60%。
新人工智慧的應用場景
新的內容審查優先級系統目前用於提要貼文和評論。 LinkedIn 宣布正在努力將這項新流程添加到其他 LinkedIn 網站。
審核有害內容非常重要,因為它可以透過減少接觸有害內容的使用者數量來幫助改善使用者體驗。
它對於審核團隊也很有用,因為它可以幫助他們擴展和管理大量內容。
這項技術已被證明是成功的,並且隨著它變得更加廣泛可用,最終可能會變得更加普遍。
閱讀 LinkedIn 廣告:
透過機器學習和動態內容優先級增強我們的內容審核工作
來自 Shutterstock 的精選圖片/因盜竊而被鎖定