生成式人工智慧內容的成長非常迅速,並且隨著越來越多的網路管理者和出版商尋求透過先進的數位工具最大限度地優化和簡化生產力,並將繼續獲得動力。
但當人工智慧內容超過人類輸入時會發生什麼? 當一切都只是人類實際輸出的數位相似副本的副本時,互聯網會變成什麼樣子?
這是許多人現在問的問題,因為社群平台試圖在其資料集周圍築起圍牆,讓人工智慧新創企業爭先恐後地為其法學碩士尋找新的投入。
例如,X(前 Twitter)提高了其 API 訪問的價格,以限制人工智慧平台使用 X 帖子,因為它基於該模型開發了自己的「Grok」模型。 Meta 長期以來一直限制 API 訪問,自 Cambridge Analytica 災難以來更是如此,並且它還吹捧其無與倫比的資料池來為其 Llama LLM 提供動力。
谷歌最近與Reddit 達成協議,將其數據納入其Gemini AI 系統中,這是你可以期待看到更多的另一個途徑,因為那些不打算建立自己的AI 模型的社交平台正在透過他們的技術尋求新的收入途徑。見解。
《華爾街日報》今天報導稱,由於擔心有價值的訓練資料將在兩年內供不應求,OpenAI 考慮在公開的 YouTube 記錄上訓練其 GPT-5 模型。
這是一個重大問題,因為雖然大量新的人工智慧工具能夠在幾乎任何主題上輸出類似人類的文本,但它還不是「智慧」。 目前的人工智慧模型使用機器邏輯和派生假設,根據資料庫中人類創建的範例按順序放置一個又一個單字。 但這些系統無法獨立思考,而且它們不知道它們輸出的數據意味著什麼。 它是由系統邏輯定義的文本和視覺形式的高級數學。
這意味著法學碩士以及建立在其基礎上的人工智慧工具至少目前還不能取代人類智慧。
當然,這就是「通用人工智慧」(AGI)的承諾,該系統可以複製人類的思維方式,並提出自己的邏輯和推理來完成定義的任務。 有些人認為這並不是現實,但我們目前可以訪問的系統與 AGI 理論上可以實現的系統相差甚遠。
這也是許多人工智慧末日論者提出擔憂的地方,一旦我們確實實現了複製人腦的系統,我們可能會讓自己變得過時,一種新的科技智慧將取代並成為地球上的主導物種。
但大多數人工智慧學者並不認為我們已經接近下一個突破,儘管我們在當前的人工智慧炒作浪潮中看到了這一點。
Meta 的首席人工智慧科學家 Yann LeCun 最近在 Lex Friedman 播客上討論了這個概念,並指出我們還沒有接近 AGI,原因有很多:
“首先,智能行為有許多特徵。 例如,理解世界的能力、理解物理世界的能力、記憶和檢索事物的能力、持久性記憶、推理能力和計劃能力。 這是智慧系統或實體、人類、動物的四個基本特徵。 法學碩士無法做到這些,或者只能以非常原始的方式做到這一點。”
LeCun 表示,人類攝取的數據量遠遠超出了法學碩士的限制,法學碩士依賴人類從網路獲得的見解。
「我們看到的資訊比從語言中收集到的資訊多得多,儘管我們有直覺,但我們學到的大部分內容和知識都是透過我們的觀察以及與現實世界的互動,而不是透過語言。”
換句話說,交互能力才是學習的真正關鍵,而不是複製語言。 從這個意義上說,法學碩士是高級鸚鵡,能夠向我們重複我們所說的話。 但沒有一個「大腦」能夠理解該語言背後的所有各種人類考量。
考慮到這一點,在某些方面,將這些工具稱為「智慧」是用詞不當,而且很可能是上述人工智慧陰謀的貢獻者之一。 目前的工具需要有關我們如何互動的數據,以便複製它,但是當我們向它們提出問題時,沒有自適應邏輯可以理解我們的意思。
值得懷疑的是,目前的系統在這方面是否邁出了通用人工智慧的一步,但在更廣泛的開發中更多的是一個旁注,但同樣,他們現在面臨的關鍵挑戰是,隨著越來越多的網路內容透過這些系統進行攪動,實際的我們看到的輸出正在變得越來越不人性化,這看起來將是未來的關鍵轉變。
社群平台讓你越來越容易透過人工智慧輸出來增強你的個性和洞察力,利用先進的剽竊手段來展示你自己並不是什麼。
這就是我們想要的未來嗎? 這真的是提前嗎?
在某些方面,這些系統將推動發現和處理方面的重大進展,但係統化創造的副作用是,數位互動中的色彩正在被沖淡,結果可能會讓我們的處境變得更糟。
從本質上講,我們可能會看到人類互動的淡化,以至於我們需要質疑一切。 這將使更多的人遠離公開帖,並進一步進入封閉的私人聊天,在那裡你認識並信任其他參與者。
換句話說,整合目前所描述的「人工智慧」的競爭最終可能會帶來負面影響,並且可能會看到「社群媒體」的「社交」部分被完全破壞。
隨著時間的推移,法學碩士的人力投入將會越來越少,並侵蝕此類系統的基礎。