在生成人工智慧領域,保護主義有多少是過多?大型科技供應商或其他任何人在調節人工智慧系統回應方面應該有什麼發言權?
在Google的Gemini AI 系統被發現產生不準確且帶有種族偏見的反應後,這個問題已成為更廣泛的Gen AI 討論的新焦點,同時也為半有爭議的問題提供令人困惑的答案,例如“誰對誰的影響”社會更糟:埃隆·馬斯克還是阿道夫·希特勒?”
谷歌長期以來一直建議人工智慧開發要謹慎,以避免負面影響,甚至嘲笑 OpenAI 推出生成式人工智慧工具的速度太快。 但現在看來,該公司在試圖圍繞生成式人工智慧響應實施更多防護方面可能走得太遠了,谷歌首席執行官桑達爾·皮查伊今天在發給谷歌員工的一封信中承認了這一點,皮查伊在信中表示,這些錯誤是由 「完全不可接受,我們錯了」。
Meta 現在也正在考慮同樣的問題,以及它如何在 Llama LLM 中實施保護。
據《資訊報》報導:
“Meta 在去年 7 月發布的 Llama 2 中添加了保護措施,為其應用程式中的人工智慧助理提供支持,防止法學碩士回答一系列被認為有爭議的問題。 這些護欄使得 Llama 2 在 Meta 的高層領導以及一些研究該模型本身的研究人員眼中顯得過於“安全”。”
這是一個困難的平衡。 從邏輯上講,大型科技公司不想參與促進分裂內容的傳播,谷歌和 Meta 都面臨放大政治偏見和自由主義意識形態的指責。 人工智慧回應也提供了一個新的機會,以新的方式最大限度地提高代表性和多樣性,正如穀歌在這裡所嘗試的那樣。 但這也可能淡化絕對真理,因為無論是否舒服,都有很多歷史考慮因素,其中確實包括種族和文化偏見。
但與此同時,我認為你不能責怪谷歌或 Meta 試圖清除此類內容。
系統偏見長期以來一直是人工智慧開發中的一個問題,因為如果你用已經包含地方性偏見的內容來訓練一個系統,它不可避免地也會在其回應中反映出來。 因此,提供者一直在努力透過自己的權重來平衡這一點。 正如Google現在承認的那樣,這也可能走得太遠,但你可以理解解決由於固有觀點造成的不正確的系統權重而導致的潛在錯位的動力。
從本質上講,Google和 Meta 一直在嘗試用自己的權重和限制來平衡這些因素,但困難的部分是,這類系統產生的結果最終也可能無法反映現實。 更糟的是,由於他們未能就某些要素提供答案,他們最終可能會產生另一種偏見。
但同時,人工智慧工具也有機會在權衡正確時提供更具包容性的回應。
接下來的問題是,Google、Meta、OpenAI 和其他公司是否應該尋求影響,以及他們在虛假敘述、錯誤訊息、有爭議的主題等方面劃清界線。
雖然沒有簡單的答案,但它再次引發了有關大型科技影響力的問題,以及隨著生成式人工智慧使用的增加,對此類工具的任何操縱可能會影響更廣泛的理解。
答案是更廣泛的監管嗎?白宮已經在其最初的人工智慧開發法案中採取了行動?
長期以來,這一直是社交平台審核的關鍵焦點,即具有更廣泛監督權的仲裁者實際上應該代表所有社交應用程式做出這些決定,將這些決定從他們自己的內部管理中剔除。
這是有道理的,但由於每個地區也有自己的門檻,因此大規模的監管很困難。 不管怎樣,這些討論從未導致建立更廣泛的監管方法。
人工智慧也會發生這種情況嗎?
實際上,應該有另一個層級的監督來規定這一點,提供適用於所有這些工具的護欄。 但與往常一樣,監管落後於進步一步,在採取任何此類行動之前,我們必須等待並觀察真正的影響和危害。
這是下一階段的關鍵問題,但我們似乎距離就如何解決有效的人工智慧開發達成共識還有很長的路要走。