我們至少要了解人工智能 (AI) 的兩件事。
首先,人工智能的狂熱在過去三年中一直在推動股市走高,即使在此過程中偶爾會出現下跌。
其次,人工智能是一項革命性的技術,它將改變世界,并可能消除許多工作,包括需要培訓和技術技能的工作。
這兩點都是正確的。但并能因此排除其中的一些陷阱,并保持足夠的謹慎與冷靜。
AI一直在推動股市創下歷史新高,但市場的外觀和感覺就像一個超級泡沫。但這不是今天做空主要股指的理由。泡沫的持續時間可能比任何人預期的都要長。
關于第二點,人工智能將使一些工作過時或容易被取代。當然,與任何新技術一樣,它將創造需要不同技能的新工作崗位。教師不會過時。他們將從教授數學和閱讀的基礎知識(人工智能做得很好)轉向教授批判性思維和推理(計算機做得很差或根本沒有)。
變化將是無處不在的,但它們仍然是變化,而不是混亂。
01
物理邊界限制
人工智能是一股強大的力量,但遠不如表面上看到的那么簡單。
AI可能面臨處理能力、訓練集和發電方面的材料限制。半導體芯片的速度越來越快,新的芯片正在開發中。但這些芯片會消耗大量能源,尤其是在新AI 數據中心的巨大陣列中安裝時。
倡導者正在轉向核電站,包括小型模塊化反應堆,以滿足AI的能源需求。
這種需求是非線性的,這意味著需要指數級更大的能源才能在加工輸出方面取得小的進步。
AI 正在迅速接近其實現更高性能能力的實際極限。
這種近乎永不滿足的能源需求,意味著AI競賽實際上是一場能源競賽。
02
AI 缺乏常識
AI 的另一個不為人知的限制,是搜索中信息守恒定律。
該定律有嚴格的數學證明支持。它說的是AI找不到任何新信息。它可以更快地找到事物,并且可以建立人類可能幾乎不可能建立的聯系。這很有價值。但 AI 找不到任何新的東西。
它只能尋找和找到已經存在的信息。新知識以創造力、藝術、寫作和原創作品的形式來自人類。計算機無法執行真正的創造性任務。
這應該給人類一些安慰,因為他們永遠不會過時。
AI的另一個問題,是訓練集的稀釋和退化。因為更多的訓練集內容由先前處理的 AI 輸出組成。
AI 容易出現錯誤、幻覺(更準確地說是虛構)和沒有事實依據的推理。這已經夠糟糕了。但是,當該輸出進入訓練集(基本上是 Internet 中的每個頁面)時,訓練集的質量會下降,而未來的輸出會同步下降。
除了仔細策劃之外,沒有好的解決方案。如果必須成為主題專家來策劃訓練集,然后評估輸出,這會大大降低 AI 的增值作用。
計算機也缺乏同理心、同情心和常識。他們處理,但他們并不真正像人類那樣思考。事實上,AI根本不會思考;這只是數學。
在最近的一項實驗中,一臺AI計算機與一組3至7歲的孩子進行了比賽。挑戰是用手頭的工具畫一個圓圈。這些工具是一把尺子、一個茶壺和第三個不相關的物體,比如一個爐子。
計算機推斷尺子是像指南針一樣的繪圖工具,并試圖用尺子畫一個圓。它失敗了。孩子們看到茶壺的底部是一個圓圈,就簡單地在茶壺上畫出完美的圓圈。
AI 系統使用了關聯邏輯。孩子們用的是常識。孩子們贏了。這個結果在未來的比賽中不會改變,因為常識(技術上是歸納邏輯)是無法編程的。
雄心勃勃的AI公司很快發現,他們的系統可以被新系統超越,這些系統只是使用大價錢AI輸出作為基準訓練集。這是以一小部分成本實現高性能的捷徑。
像Microsoft和Google這樣的老牌AI公司稱之為盜竊IP,但這并不比那些使用現有IP而不支付版稅的巨頭差。
這可能是海盜的一種形式,但很容易做到,而且幾乎不可能阻止。
這并不意味著AI的終結。這意味著AI天價利潤預測的終結。AI巨頭花費的數千億美元的回報可能微薄。
03
創新者還是推銷員?
AI世界中最著名的人物是山姆·奧特曼( Sam Altman)。
他是OpenAI的負責人,該公司幾年前推出了ChatGPT應用程序。
人工智能始于 1950 年代,從 1980 年代的發展角度來看似乎遇到了瓶頸(這一時期被稱為人工智能冬天),在 1990 年代和 2000 年代初基本上處于休眠狀態,然后在過去十年中突然又恢復了活力。ChatGPT 在最初的幾個月里是歷史上下載次數最多的應用程序,如今擁有數億用戶。
奧特曼去年被 OpenAI 董事會趕出,因為該公司旨在作為一個非營利實體,為人類的利益開發人工智能。奧特曼希望將其轉變為營利性實體,作為數千億美元IPO的前奏。
當頂級工程師威脅要辭職并跟隨奧特曼進行新的冒險時,董事會很快改變了方向,將奧特曼帶回了公司,盡管確切的法律結構仍在討論中。
與此同時,阿爾特曼全速推進了他對超級智能(也稱為高級通用智能 (AGI),關鍵詞是“通用”,這意味著系統可以像人類一樣思考,只是更好。
理解超級智能的一種方法是比喻人類之于計算機,就像猿類之于人類一樣。我們會被認為是聰明的,但不會比我們的機器大師更聰明。
阿爾特曼說,“在某些方面,ChatGPT 已經比任何活著的人都更強大。他還表示,他預計到202 年,人工智能機器將“完成真正的認知工作”,并將在2026 年之前創造“新穎的見解”。
這都是無稽之談,原因有幾個。
首先,如上所述,訓練集(大型語言模型研究的材料)正在受到先前 AI 模型輸出的污染,因此機器變得越來越笨拙,而不是越來越智能。
第二個是我上面也描述過的搜索中信息守恒定律。該定律(由應用數學支持)表明,計算機可能能夠比人類更快地找到信息,但它們無法找到任何尚不存在的信息。
換句話說,當前邏輯下的機器并不是真正的思考,也不是真正的創造力。他們只是比我們更快地連接點。
Apple 的一篇新論文總結道:通過對各種謎題的廣泛實驗,我們表明,前沿 LRM ‘大型推理模型’在超出某些復雜性的情況下面臨著準確性的完全崩潰。此外,他們表現出一個違反直覺的擴展限制:他們的推理努力隨著問題的復雜性而增加,直到一定程度,然后盡管有足夠的代幣預算,他們的推理工作也會下降。這一證據和其他證據表明,AI 達到了蠻力計算能力無法克服的邏輯極限。
最后,從來沒有開發人員能夠編寫歸納邏輯、真正的常識或直覺。 這是人類擁有的最強大的推理工具之一。
簡而言之,超級智能(可能)永遠不會到來。
奧特曼越來越像一個硅谷推銷員,推銷下一件大事,背后沒有太多支持。