企業家貢獻者表達的意見是他們自己的。
從生成只是為了好玩的教皇圖像到幫助整理工作申請並減輕招聘經理負擔的演算法,人工智慧程式已經席捲了公眾意識和商界。 然而,至關重要的是不要忽視與之相關的潛在的根深蒂固的道德問題。
這些突破性的技術工具透過從現有數據和其他材料中獲取內容來產生內容,但如果這些來源甚至部分是種族或性別偏見的結果,例如,人工智慧很可能會複製這種情況。 對於我們這些想要生活在一個多元化、公平和包容(DEI)處於新興技術前沿的世界的人來說,我們都應該關心人工智慧系統如何創建內容以及它們的輸出對社會產生什麼影響。
因此,無論您是開發人員、人工智慧新創企業的企業家,還是像我一樣關心此事的公民,請考慮將這些原則整合到人工智慧應用程式和程式中,以確保它們創造更道德和公平的輸出。
有關的: 建構真正道德的人工智慧需要什麼? 這 3 個技巧可以提供幫助
1.創建以使用者為中心的設計
以使用者為中心的設計可確保您正在開發的程式包含其使用者。 這可以包括語音互動和螢幕閱讀器功能等功能,幫助視力障礙人士。 同時,語音辨識模型可以更包容不同類型的聲音(例如女性的聲音,或透過應用來自世界各地的口音)。
簡而言之,開發人員應該密切注意他們的人工智慧系統所針對的物件——在創建它們的工程師群體之外進行思考。 如果他們和/或公司企業家希望在全球範圍內擴展產品,這一點尤其重要。
2. 建立多元化的評審者和決策者團隊
人工智慧應用程式或程式的開發團隊至關重要,不僅在其創建方面,而且從審查和決策的角度來看也是如此。 紐約大學 AI Now 研究所發布的 2023 年報告描述了人工智慧發展的多個層面缺乏多樣性。 其中包括一項引人注目的統計數據,即全球頂尖科技公司中至少 80% 的人工智慧教授是男性,而女性研究人員中不到 20%。 如果在開發過程中沒有正確的檢查、平衡和代表性,我們就面臨著向人工智慧程式提供過時和/或有偏見的資料的嚴重風險,這些資料會延續對某些群體的不公正比喻。
3. 審核資料集並建立問責結構
如果存在延續偏見的舊數據,這不一定是任何人的直接過錯,但是 這是 如果資料沒有定期審核,那就是某人的錯。 為了確保人工智慧在考慮 DEI 的情況下產生最高品質的輸出,開發人員需要仔細評估和分析他們正在使用的資訊。 他們應該問:多大了? 它從何而來? 它包含什麼? 目前這是否合乎道德或正確? 也許最重要的是,數據集應確保人工智慧為 DEI 帶來積極的未來,而不是過去的消極未來。
有關的: 這些企業家對人工智慧存在偏見
4. 收集和整理不同的數據
如果在審核資訊後,使用人工智慧程序,您發現存在不一致、偏見和/或成見,請努力收集更好的材料。 說起來容易做起來難:收集資料需要數月甚至數年的時間,但這是非常值得的。
為了幫助推動這個過程,如果您是經營人工智慧新創公司的企業家,並且擁有進行研究和開發的資源,請建立項目,讓團隊成員創建代表不同聲音、面孔和屬性的新數據。 這將為應用程式和程式帶來更合適的來源材料,我們都可以從中受益——從本質上創造一個更光明的未來,將不同的個體展現為多維的,而不是片面的或簡化的。
有關的: 人工智慧可能存在種族主義、性別歧視和令人毛骨悚然。 您可以透過以下 5 種方法在企業中應對這一問題
5. 參與有關偏見和包容性的人工智慧道德培訓
作為 DEI 顧問和 LinkedIn 課程《透過交叉 DEI 鏡頭導航人工智慧》的自豪創建者, 我了解了以 DEI 為中心的人工智慧開發的力量及其產生的積極連鎖反應。
如果您或您的團隊正在努力為開發人員、審查者和其他人整理一份相關的待辦事項列表,我建議您舉辦相應的道德培訓,包括可以幫助您即時解決問題的線上課程。
有時,您所需要的只是一位培訓師來幫助您完成整個流程並一一解決每個問題,以創造出持久的結果,從而產生更具包容性、多樣化和道德的人工智慧數據和程序。
相關:在人工智慧加速的工作場所取得成功所需的 6 個特質
開發人員、企業家和其他關心減少人工智慧偏見的人應該利用我們的集體力量來培訓自己如何建立由不同的審閱者組成的團隊,這些審閱者可以檢查和審計數據,並專注於使程序更具包容性和可訪問性的設計。 其結果將是一個代表更廣泛的用戶以及更好的內容的景觀。