美國政府參議院人工智慧洞察論壇討論了人工智慧安全的解決方案,包括如何確定誰對有害的人工智慧結果負責以及如何對這些損害承擔責任。 委員會聽取了 Mozilla 基金會主席 Mark Surman 從開源 AI 社群角度提出的解決方案。
到目前為止,參議院人工智慧洞察論壇一直由人工智慧領域的主要企業守護者主導,包括Google、Meta、微軟和 OpenAI。
因此,大部分的討論都是從他的角度出發。
2023 年9 月13 日舉行的首屆人工智慧洞察論壇遭到參議員伊麗莎白·沃倫(D-MA) 的批評,稱這是一次由企業科技巨頭主導的閉門會議,這些巨頭將從影響委員會的結論中獲得最大利益。
週三,開源社群有機會表達自己對監管的看法。
馬克‧蘇爾曼 (Mark Surman),Mozilla 基金會主席
Mozilla 基金會是一個非營利組織,致力於保持網路的開放和可近性。 最近,它是 2 億美元基金的捐助者之一,該基金用於支持致力於推動人工智慧造福公共利益的公共利益聯盟。 Mozilla 基金會也創立了 Mozilla.ai,為開源人工智慧生態系統提供動力。
馬克·蘇曼在參議院論壇上的演講主要集中在五點:
- 促進公開透明
- 公平分配責任
- 預設保護隱私
- 投資隱私增強技術
- 公平分配責任
在這五點中,關於責任分配的一點特別有趣,因為它建議當人工智慧出現問題時如何確定責任方,並將責任歸咎於過失方。
確定誰應該受到指責的問題並不像看起來那麼簡單。
Mozilla 的公告解釋了這一點:
「人工智慧系統的複雜性需要採取細緻的問責方法,考慮從資料收集到模型部署的整個價值鏈。
責任不應集中,而應以反映人工智慧如何開發和推向市場的方式分配。
與其關注這些模型的實施者(他們通常無法減輕潛在危害的根本原因),不如採用更全面的方法來規範整個開發「堆疊」的實踐和流程。
開發堆疊是對共同創建人工智慧的技術的參考,包括用於訓練底層模型的資料。
蘇爾曼的言論使用了一個聊天機器人的例子,該機器人根據另一家公司創建的模型提供醫療建議,然後由醫療公司進行調整。
如果聊天機器人給有害建議,誰該負責? 開發技術的公司還是調整模式的公司?
蘇爾曼的聲明進一步解釋:
「過去幾年我們在歐盟人工智慧法方面的工作表明,要確定誰有過錯並在人工智慧價值鏈上追究責任是很困難的。
從訓練資料集到底層模型,再到使用相同模型的應用程序,開發和部署過程中的不同點和層可能會出現風險。
同時,問題不僅僅在於損害源自何處,還在於誰能夠最好地減輕損害。”
人工智慧損害賠償責任框架
蘇爾曼向參議院委員會發表的聲明強調,任何為解決哪個實體應對損害負責而製定的框架都應考慮整個開發鏈。
他指出,這不僅包括考慮開發堆疊的所有級別,還包括如何使用技術,重點是誰要承擔責任取決於誰最有能力減輕損害(蘇爾曼稱之為“損害”)。 “價值鏈。”
這意味著,如果人工智慧產品出現幻覺(即撒謊並編造虛假事實),最能減輕這種損害的實體就是創建基礎模型的實體,以及在較小程度上對其進行微調的實體。展開模型。
蘇爾曼總結這一點時說:
「任何施加責任的框架都必須考慮到這種複雜性。
我們需要的是一個清晰的導航過程。
因此,監管應有助於發現和報告損害(無論損害可能出現在哪個階段),確定其根本原因(這在處理變壓器模型時需要技術進步),並建立追究責任人責任的機制。解決或未能解決這些發展的根本原因。”
誰對人工智慧造成的損害負責?
Mozilla 基金會主席 Mark Surman 對於監管的未來應該是什麼樣子提出了一些精彩的觀點。 他談到了隱私問題,這很重要。
但特別令人感興趣的是責任問題,以及在人工智慧出錯時確定責任方的獨特技巧。
閱讀 Mozilla 官方部落格文章:
Mozilla 加入最新的 AI Insight 論壇
閱讀 Mozilla 總裁 Mark Surman 在參議院 AI 洞察論壇上的評論:
AI 洞察論壇:隱私與責任 (PDF)
精選圖片由 Shutterstock/Ron Adar 提供