生成式人工智慧影片的最新範例以其準確性令人驚嘆,同時也強調了我們現在面臨的人工內容的潛在威脅,人工內容很快可能會被用來描繪不真實但令人信服的場景,從而影響人們的觀點和行為。
例如,此類內容可能會影響人們的投票方式。
考慮到這一點,上週晚些時候,在 2024 年慕尼黑安全會議上,幾乎所有主要科技公司的代表都同意一項新協議,以實施 防止人工智慧工具被用來擾亂民主選舉的「合理預防措施」。
根據 技術協議將打擊 2024 年選舉中人工智慧的欺騙性使用:
「2024年將舉行比歷史上任何一年都要多的選舉,屆時將有40多個國家和超過40億人民透過投票權選擇領導人和代表。 同時,人工智慧的快速發展為民主進程創造了新的機會和挑戰。 全社會都必須利用人工智慧提供的機會,共同採取新措施,在這個特殊的一年裡保護選舉和選舉進程。”
來自Google、Meta、微軟、OpenAI、X 和TikTok 的高層都同意了這項新協議,理想情況下,該協議將實現更廣泛的合作和協調,以幫助解決人工智慧生成的假貨,避免它們產生影響。
該協議列出了七個重點關注要素,所有簽署方原則上都同意將其作為關鍵措施:
該計劃的主要好處是每家公司承諾共同努力分享最佳實踐,並“探索新的途徑來分享有關欺騙性人工智能選舉內容的最佳工具和/或技術信號,以應對事件。”
該協議還為各方提出了「與多元化的全球民間社會組織、學術界接觸」的雄心,以便更廣泛地了解全球風險格局。
這是積極的一步,儘管它也不具有約束力,而且更多的是每家公司努力尋求最佳解決方案的善意姿態。 因此,它沒有規定要採取的明確行動,也沒有規定對不這樣做的處罰。 但理想情況下,它確實為更廣泛的合作行動奠定了基礎,以阻止人工智慧內容產生重大影響。
儘管這種影響是相對的。
例如,在最近的印尼選舉中,各種人工智慧深度偽造元素被用來影響選民,包括旨在激發支持的已故領導人蘇哈託的視頻描述,以及一些候選人的卡通版本,作為軟化他們公眾形象的手段。
這些是人工智慧產生的,這一點從一開始就很清楚,沒有人會被誤導相信這些是候選人外表的真實圖像,也不會相信蘇哈托已經死而復生。 但即使有了這些知識,這種影響也可能是重大的,這強調了這種認知的力量,即使它們隨後被刪除、貼上標籤等。
這可能才是真正的風險。 如果人工智慧生成的喬拜登或唐納德川普的圖像能夠引起足夠的共鳴,那麼它的起源可能是微不足道的,因為它仍然可以根據描述來影響選民,無論它是否真實。
認知很重要,無論採取何種保障措施和預防措施,明智地使用深度偽造品都會產生影響,並會影響一些選民。
這是我們現在必須承擔的風險,因為此類工具已經很容易獲得,並且像以前的社交媒體一樣,我們將回顧性地評估其影響,而不是提前堵塞漏洞。
因為這就是科技的運作方式,我們行動迅速,我們打破常規。 然後我們收拾殘局。