在某些方面,歐盟在技術監管方面遙遙領先,並採取積極措施確保將消費者保護納入新的數位環境。
但在其他方面,歐盟法規可能會扼殺開發,並實施無法真正達到其預期目的的繁瑣系統,只會為開發人員增加更多障礙。
典型的例子:今天,歐盟宣布了一套新的法規,旨在監管人工智慧的發展,圍繞著道德和可接受的方式使用人類資料來訓練人工智慧系統採取了一系列措施。
其中有一些有趣的規定。 例如:
“新規定禁止某些威脅公民權利的人工智慧應用,包括基於敏感特徵的生物辨識分類系統,以及從網路或閉路電視錄影中無針對性地抓取臉部影像以建立臉部辨識資料庫。 工作場所和學校中的情緒識別、社會評分、預測性警務(僅基於對一個人進行分析或評估其特徵時)以及操縱人類行為或利用人們的弱點的人工智慧也將被禁止。」
您可以看到這些法規旨在如何解決人工智慧使用中一些更令人擔憂的因素。 但同時,這些規則只能在回顧時應用,並且有大量證據表明人工智慧工具將會並且已經被創建可以做這些事情,即使這不是它們最初開發的意圖。
因此,根據這些規則,一旦這些應用程式發布,歐盟官員將能夠禁止它們。 但它們仍將被建造,並且可能仍會以其他方式提供。
我想,新規則至少將為歐盟官員在此類情況下採取行動提供法律支援。 但回想起來,控制一切似乎有點毫無意義,特別是如果這些相同的工具將以任何方式在其他地區可用的話。
這是人工智慧開發整體上更廣泛的擔憂,因為來自其他國家的開發者不會受到相同法規的約束。 這可能會導致西方國家在人工智慧競賽中落後,因為限制措施並未普遍實施。
歐盟開發人員在這方面可能尤其受到阻礙,因為許多人工智慧工具將能夠做這些事情,即使這不是他們創建的意圖。
我想,這是人工智慧開發挑戰的一部分。 在這些系統真正實現之前,我們並不確切地知道它們將如何工作,隨著人工智慧理論上變得“更聰明”,並開始拼湊更多元素,它們將會產生有害的潛在用途,幾乎所有工具集都可以實現某些功能。非故意濫用的形式。
實際上,法律應該更具體地涉及人工智慧工具背後的語言模型和數據集,而不是工具本身,因為這將使官員能夠關注正在獲取哪些信息以及如何獲取信息,並限制這方面的意外後果,不限制實際的AI系統開發。
無論如何,這確實是監管收集哪些數據以及如何使用數據的主要推動力。
在這種情況下,歐盟官員不一定需要一部可能限制發展的人工智慧法,而是需要對目前的數位服務法(DSA)進行與擴大數據使用有關的修正案。
儘管如此,無論如何,監管此類行為都將是一個挑戰,看看歐盟官員如何在實踐中製定這些新規則將會很有趣。
您可以在此處閱讀新的歐盟人工智慧法案的概述。