我們如何防止人工智慧變得流氓?
ChatGPT 背後的價值 800 億美元的人工智慧公司 OpenAI 在兩位負責這項工作的高階主管離開公司後,剛剛解散了解決這個問題的團隊。
人工智慧安全爭議發生不到一周前,OpenAI 宣布了一種新的人工智慧模型 GPT-4o,該模型具有更多功能,而且聲音與史嘉蕾喬韓森的聲音驚人地相似。 該公司週一暫停了該特定聲音的推出。
有關的: 史嘉蕾喬韓森 (Scarlett Johansson) 對 OpenAI 在已經向公司表示“不”之後使用與她“極其相似”的聲音感到“震驚”
耶魯大學應用數學博士薩希爾·阿加瓦爾 (Sahil Agarwal) 表示,他是 Enkrypt AI 的聯合創始人並目前負責運營,這是一家致力於降低人工智慧對企業風險的新創公司。 企業家 創新和安全不是需要平衡的獨立事物,而是隨著公司的發展並進的兩件事。
阿加瓦爾說:“當你試圖讓這些系統對社會更加安全時,你就不會阻止創新的發生。”
OpenAI 高層提出安全擔憂
上週,前 OpenAI 首席科學家兼聯合創始人 Ilya Sutskever 和前 OpenAI 研究負責人 Jan Leike 都從這家 AI 巨頭辭職。 兩人的任務是領導超級對齊團隊,確保人工智慧即使在能力不斷增長的情況下也處於人類控制之下。
有關的: OpenAI 首席科學家、共同創辦人 Ilya Sutskever 辭職
儘管Sutskever 在離職聲明中表示,他「相信」OpenAI 將在執行長Sam Altman 的領導下建立「安全且有益」的人工智慧,但Leike 表示,他離開是因為他認為OpenAI 並未優先考慮人工智慧安全。
「在過去的幾個月裡,我的團隊一直在逆風航行,」雷克寫道。 “建造比人類更聰明的機器本質上是一項危險的工作。”
Leike 還表示,“在過去的幾年裡,安全文化和流程已經讓位給閃亮的產品”,並呼籲 ChatGPT 製造商將安全放在第一位。
但在過去的幾年裡,安全文化和流程已經讓位給閃亮的產品。
— 簡·雷克 (@janleike) 2024 年 5 月 17 日
OpenAI 週五向《連線》雜誌證實,該公司解散了 Leike 和 Sutskever 領導的超級對齊團隊。
山姆·奧爾特曼,OpenAI 執行長。 攝影師:達斯汀錢伯斯/彭博社,蓋蒂圖片社
Altman 和OpenAI 總裁兼聯合創始人 Greg Brockman 週六發表聲明回應雷克,指出OpenAI 提高了人們對人工智慧風險的認識,以便世界能夠做好準備,並且人工智慧公司一直安全地部署系統。
我們非常感謝 Jan 為 OpenAI 所做的一切,我們知道他將繼續從外部為這項使命做出貢獻。 鑑於他的離職引發的問題,我們想解釋我們如何看待我們的整體策略。
首先,我們有…… https://t.co/djlcqEiLLN
— 格雷格·布羅克曼 (@gdb) 2024 年 5 月 18 日
我們如何防止人工智慧失控?
Agarwal 表示,當 OpenAI 試圖讓 ChatGPT 變得更像人類時,危險不一定是超級智慧生物。
「即使是像 ChatGPT 這樣的系統,它們也不會以任何方式進行隱式推理,」Agarwal 說。 企業家。 “所以我不認為從超級智慧人工存在的角度來看這種風險。”
他解釋說,問題在於,隨著人工智慧變得更加強大和多方面,更多隱性偏見和有毒內容的可能性也會增加,人工智慧的實施風險也會更大。 透過添加更多與ChatGPT互動的方式,從圖像到視頻,OpenAI必須從更多角度考慮安全性。
有關的: OpenAI 推出新的人工智慧聊天機器人 GPT-4o
Agarwal 的公司本月稍早發布了一個安全排行榜,對 Google、Anthropic、Cohere、OpenAI 等公司的 AI 模型的安全性和安全性進行了排名。
他們發現,新的 GPT-4o 模型可能比以前的模型包含更多的偏差,並且可能比以前的模型產生更多有毒的內容。
「ChatGPT 所做的就是讓人工智慧真正為每個人服務,」Agarwal 說。