人工智慧 (AI) 可以提供解決方案來減少被視為有毒和兩極化的社群媒體活動。
在最近的一項研究中,研究人員表明,調整社群網路顯示內容的方式可以減少黨派分歧並帶來更積極的互動。
這項研究是由阿姆斯特丹大學教授 Petter Törnberg 領導的團隊進行的。 他們根據調查數據編寫了 500 個具有獨特政治和人口特徵的聊天機器人。
這些機器人被設計用來閱讀真實新聞並將其發佈在模擬的 Twitter/X 環境中。
在這種情況下,機器人表現出更樂於尋找共同點和更少的有毒行為。 隨著人工智慧更加真實地模仿人類,這項研究可能會提供有關如何在社群媒體上將人們聚集在一起的見解,同時避免道德陷阱。
有關該研究的更多資訊:社交網路的模擬
Törnberg 的團隊使用 ChatGPT 3.5 對聊天機器人進行程式設計。 每個機器人都被分配了政治立場、年齡、性別、收入、宗教、最喜歡的運動隊伍等等。 這為研究人員提供了多樣化的模擬人群。
在 2020 年 7 月的模擬一天,機器人閱讀了該時期有關 COVID-19 抗議和“黑人生命也是命”等主題的真實新聞頭條。 機器人對新聞頭條的貼文進行評論、按讚和互動。
研究人員創建了三種不同的實驗性 Twitter 模型:
- 迴聲室模型僅顯示其他人具有相似觀點的機器人貼文。
- 發現模型將參與置於信念之上。
- 第三個「橋接」模型突出了對立黨派團體喜歡的帖子,以優化跨黨派互動。
追蹤機器人行為
模擬持續了 6 個小時,研究人員追蹤機器人的行為。
在橋樑模型中,機器人在鄉村音樂中 LGBTQ+ 權利等問題上找到共同點時表現出更大的快樂。 與極化迴聲室模型相比,各方之間的互動也明顯增多,有毒交換也更少。
「如果人們就一個跨越黨派分歧的問題進行互動,即你同意的人中有 50% 投票支持與你不同的政黨,就會減少兩極分化,」Törnberg 解釋道。 “你的黨派身份沒有被激活。”
結果表明,社交網路的設計可以鼓勵參與,而不會助長不同群體之間的虐待。 然而,還需要更多的研究來驗證先進的人工智慧聊天機器人是否能夠忠實地模擬人類的線上行為。
道德問題
關於使用私人資料訓練人類機器人的道德擔憂仍然存在。 也許它們可以根據人們的社交媒體貼文、瀏覽歷史或機密記錄進行編程,從而提出同意問題。
可能需要關於使用數據訓練機器人進行此類研究的人的權利指南。
隨著人工智慧聊天機器人表現得更人性化,它們可以為減少社交媒體毒性提供線索。 然而,研究人員必須確保數位替身也能反映人性最好的一面,而不是最糟糕的一面。
特色圖片:CkyBe/Shutterstock