通用人工智能、人工智能感知和大型語言模型
也許你還沒有注意到,人工智能系統最近的表現越來越令人驚訝。
例如, OpenAI 的新模型DALL-E 2可以根據簡單的文本提示生成引人入勝的原始圖像。像 DALL-E 這樣的模型讓人們更難否認人工智能具有創造力的概念。例如,考慮一下DALL-E對“一頭穿著牛仔夾克的嘻哈奶牛在錄音室錄制熱門單曲”的富有想象力的演繹。或者對于更抽象的示例,查看DALL-E對舊 Peter Thiel 行的解釋“我們想要飛行汽車,而不是 140 個字符?!?/p>
與此同時,DeepMind 最近宣布了一種名為Gato的新模型,它可以單槍匹馬地執行數百種不同的任務,從玩電子游戲到進行對話,再到用機械臂堆疊現實世界的積木。幾乎所有以前的 AI 模型都能夠做一件事,而且只能做一件事——例如,下棋。因此,Gato 代表了朝著更廣泛、更靈活的機器智能邁出的重要一步。
而今天的大型語言模型 (LLM)——從 OpenAI 的 GPT-3 到 Google 的 PaLM 再到 Facebook 的 OPT——擁有令人眼花繚亂的語言能力。他們幾乎可以就任何主題進行細微和深入的交談。他們可以自己生成令人印象深刻的原創內容,從商業備忘錄到詩歌。僅舉一個最近的例子,GPT-3 最近撰寫了一篇關于其自身的寫得很好的學術論文,目前正在接受同行評審,以便在著名的科學期刊上發表。
這些進步激發了人工智能社區關于技術發展方向的大膽猜測和熱烈討論。
一些可靠的人工智能研究人員認為,我們現在距離“通用人工智能”(AGI)很近,這是一個經常討論的基準,指的是強大、靈活的人工智能,可以在任何認知任務中勝過人類。上個月,一位名叫 Blake Lemoine 的 Google 工程師通過戲劇性地聲稱 Google 的大型語言模型LaMDA是有感知的而登上了頭條新聞。
對此類主張的抵制同樣強烈,許多 AI 評論員立即 否定了這種可能性。
那么,我們要如何看待人工智能領域最近取得的所有驚人進展呢?我們應該如何看待人工智能和人工智能感知等概念?
關于這些主題的公共話語需要以幾個重要的方式重新構建。認為超級智能人工智能即將到來的過度興奮的狂熱者,以及認為人工智能最近的發展只是炒作的不屑一顧的懷疑論者,在他們對現代人工智能的一些基本方面的思考中都偏離了標準。
通用人工智能是一個不連貫的概念
人們經常忽略的關于人工智能的一個基本原則是,人工智能從根本上不同于人類智能。
將人工智能過于直接地類比為人類智能是錯誤的。今天的人工智能不僅僅是人類智能的一種“進化程度較低”的形式。明天的超先進人工智能也不會只是人類智能的更強大版本。
許多不同的智能模式和維度是可能的。最好不要將人工智能視為對人類智能的不完美模仿,而是將其視為一種獨特的、外星的智能形式,其輪廓和能力在基本方面與我們不同。
為了使這一點更具體,簡單地考慮一下今天的人工智能狀態。今天的人工智能在某些領域遠遠超過了人類的能力——而在其他領域卻遠遠落后于人類。
舉個例子:半個世紀以來, “蛋白質折疊問題”一直是生物學領域的一大挑戰。簡而言之,蛋白質折疊問題需要根據蛋白質的一維氨基酸序列預測蛋白質的三維形狀。數十年來,世界上幾代最聰明的人共同努力,未能解決這一挑戰。2007 年的一位評論員將其描述為“現代科學中最重要但尚未解決的問題之一”。
2020 年底,DeepMind 的一個名為 AlphaFold 的 AI 模型為蛋白質折疊問題提供了解決方案。正如長期從事蛋白質研究的 John Moult 所說,“這是歷史上第一次由 AI 解決嚴重的科學問題?!?/p>
破解蛋白質折疊之謎需要空間理解和高維推理形式,而這根本超出了人類思維的掌握范圍。但并非超出現代機器學習系統的掌握范圍。
與此同時,任何健康的人類兒童都擁有遠遠超過世界上最復雜的人工智能的“具身智能”。
從很小的時候起,人類就可以毫不費力地做一些事情,比如玩接球、走過陌生的地形,或者打開廚房的冰箱吃點零食。事實證明,人工智能很難掌握這些物理能力。
這被封裝在“莫拉維克悖論”中。正如 AI 研究員莫拉維克( Hans Moravec) 在 1980 年代所說:“讓計算機在智力測試或下棋時表現出成人水平的表現相對容易,但很難或不可能讓計算機具備一歲兒童的技能。感知和流動性。”
莫拉維克對這個不直觀的事實的解釋是進化論的:“在人類大腦的大型、高度進化的感覺和運動部分中,編碼了十億年關于世界性質以及如何在其中生存的經驗。[另一方面,]我們稱之為高級推理的深思熟慮的過程,我相信,是人類思想的最薄薄的一層,它之所以有效,僅僅是因為它得到了這種更古老、更強大、雖然通常是無意識的感覺運動知識的支持。我們都是知覺和運動領域的杰出奧運選手,如此出色以至于我們讓困難看起來很容易。”
直到今天,機器人仍在與基本的身體能力作斗爭。就在幾周前,一組 DeepMind 研究人員在一篇新論文中寫道:“與非常年幼的孩子相比,當前的人工智能系統對‘直覺物理學’的理解相形見絀?!?/p>
這一切的結果是什么?
沒有通用人工智能這樣的東西。
AGI 既不可能也不不可能。相反,它作為一個概念是不連貫的。
智能不是單一的、定義明確的、可概括的能力,甚至也不是一組特定的能力。在最高層次上,智能行為只是一個代理獲取和使用有關其環境的知識來追求其目標。因為存在大量(理論上是無限的)不同類型的代理、環境和目標,所以智能可以通過無數種不同的方式表現出來。
AI大神Yann LeCun總結得很好:“沒有通用人工智能這種東西……即使是人類也是專用的?!?/p>
將“通用”或“真正的”人工智能定義為可以做人類可以做的事情(但更好)的人工智能——認為人類智能是通用智能——是短視的以人為中心。如果我們將人類智能作為人工智能發展的最終錨和標準,我們將錯過機器智能可能具備的所有強大、深刻、意想不到、對社會有益、完全非人類的能力。
想象一下,一個人工智能對地球大氣的組成有了原子級的理解,并且可以以極高的準確度動態預測整個系統將如何隨著時間的推移而演變。想象一下,如果它可以設計出一種精確、安全的地球工程干預措施,我們在大氣中的某些地方沉積一定數量的某些化合物,從而抵消人類持續碳排放造成的溫室效應,從而減輕全球變暖對地球表面的影響。
想象一下,一個人工智能可以將人體中的每一個生物和化學機制都細致入微地理解到分子水平。想象一下,如果它可以因此開出量身定制的飲食來優化每個人的健康,可以精確診斷任何疾病的根本原因,可以產生新的個性化療法(即使它們還不存在)來治療任何嚴重的疾病。
想象一下,一個人工智能可以發明一種協議,以一種安全地產生比消耗更多的能量的方式融合原子核,從而將核聚變解鎖為一種廉價、可持續、無限豐富的人類能源。
所有這些場景在今天仍然是幻想,對于今天的人工智能來說是遙不可及的。關鍵在于,人工智能的真正潛力在于這樣的道路——隨著新型智能形式的發展,這些智能形式完全不同于人類所能做到的任何事情。如果人工智能能夠實現這樣的目標,誰會在乎它在整體上匹配人類能力的意義上是否是“通用的”?
將我們自己定位于“通用人工智能”會限制和削弱這項技術的發展潛力。而且——因為人類智能不是一般智能,一般智能不存在——它首先在概念上是不連貫的。
成為人工智能是什么感覺?
這給我們帶來了一個關于人工智能大局的相關話題,這個話題目前正受到公眾的廣泛關注:人工智能是否或者永遠是有感知能力的問題。
谷歌工程師 Blake Lemoine上個月公開斷言谷歌的一個大型語言模型已經變得有意識,這引發了一波爭議和評論浪潮。(在形成任何明確的意見之前,值得自己閱讀Lemoine 和 AI 之間討論的完整記錄。)
大多數人——尤其是人工智能專家——認為 Lemoine 的說法是錯誤的和不合理的。
谷歌在官方回應中表示:“我們的團隊已經審查了布萊克的擔憂,并告知他證據不支持他的說法。” 斯坦福大學教授 Erik Brynjolfsson認為,感知人工智能可能還需要 50 年的時間。加里馬庫斯插話稱 Lemoine 的說法是“胡說八道”,并得出結論說“這里沒有什么可看的。”
整個討論的問題——包括專家輕描淡寫的解雇——的問題在于,根據定義,感知的存在與否是不可證明的、不可證偽的、不可知的。
當我們談論感知時,我們指的是代理人的主觀內在體驗,而不是任何外在的智力表現。沒有人——不是 Blake Lemoine、不是 Erik Brynjolfsson、不是 Gary Marcus——可以完全確定高度復雜的人工神經網絡在內部體驗或不體驗什么。
1974 年,哲學家托馬斯·內格爾發表了一篇題為《成為蝙蝠是什么感覺?》的文章。作為 20 世紀最有影響力的哲學論文之一,這篇文章將眾所周知的難以捉摸的意識概念歸結為一個簡單、直觀的定義:如果有某種東西愿意成為那個代理人,那么代理人就是有意識的。例如,做我的隔壁鄰居,甚至做他的狗都像是什么東西;但做他的郵箱一點也不像。
該論文的一個關鍵信息是,不可能以有意義的方式確切地知道成為另一個生物體或物種的感覺。其他有機體或物種越不像我們,它的內部體驗就越難以接近。
內格爾以蝙蝠為例來說明這一點。他之所以選擇蝙蝠,是因為作為哺乳動物,它們是高度復雜的生物,但它們對生活的體驗與我們截然不同:它們會飛,它們使用聲納作為感知世界的主要手段,等等。
正如 Nagel 所說(值得全文引用論文中的幾段):
“我們自己的經驗為我們的想象力提供了基本材料,因此想象力的范圍是有限的。試想一個人的胳膊上有蹼,使人在黃昏和黎明時可以飛來飛去,嘴里有蟲子,這無濟于事;一個人的視力很差,通過反射的高頻聲音信號系統感知周圍的世界;那個人整天倒掛在閣樓上。
“就我所能想象的(這不是很遠)而言,它只告訴我像蝙蝠一樣行事會是什么樣子。但這不是問題。我想知道蝙蝠成為蝙蝠是什么感覺。然而,如果我試圖想象這一點,我就會被限制在我自己的思想資源中,而這些資源不足以完成這項任務。我無法通過想象對我當前經驗的補充,或者通過想象逐漸從中減去的片段,或者通過想象一些加法、減法和修改的組合來實現它?!?/p>
與蝙蝠相比,人工神經網絡對我們人類來說更加陌生和難以接近,蝙蝠至少是哺乳動物和碳基生命形式。
同樣,太多評論者在這個話題上犯的基本錯誤(通常甚至沒有考慮過)是假設我們可以簡單地將我們對人類感知或智能的期望映射到人工智能。
我們無法以任何直接或第一手的方式確定甚至思考人工智能的內在體驗。我們根本無法確定。
那么,我們如何才能以富有成效的方式處理 AI 感知這個話題呢?
我們可以從圖靈(Alan Turing) 在 1950 年首次提出的圖靈測試中獲得靈感。圖靈測試經常受到批評或誤解,而且肯定是不完美的,它作為 AI 領域的參考點經受住了時間的考驗,因為它捕捉到了某些基本見解關于機器智能的本質。
圖靈測試承認并接受了我們永遠無法直接訪問人工智能內部體驗的現實。它的全部前提是,如果我們想衡量人工智能的智能,我們唯一的選擇是觀察它的行為,然后得出適當的推論。(需要明確的是,圖靈關注的是評估機器的思考能力,而不一定是它的感知能力;不過,就我們的目的而言,相關的是基本原理。)
侯世達(Douglas Hofstadter) 特別雄辯地闡述了這個想法:“你怎么知道當我與你交談時,我內心正在發生任何類似于你所說的‘思考’的事情?圖靈測試是一個了不起的探針——就像物理學中的粒子加速器。就像在物理學中一樣,當您想了解原子或亞原子水平上發生的事情時,由于您無法直接看到它,因此您可以將加速粒子從相關目標上散射并觀察它們的行為。由此您可以推斷出目標的內部性質。圖靈測試將這個想法延伸到頭腦中。它將思想視為不直接可見但可以更抽象地推斷其結構的“目標”。通過從目標頭腦中‘分散’問題,你可以了解它的內部運作,就像在物理學中一樣?!?/p>
為了在關于人工智能感知的討論中取得任何進展,我們必須將自己定位在可觀察的表現上,作為內部體驗的代理;否則,我們會在不嚴謹、空洞、死胡同的辯論中兜圈子。
Erik Brynjolfsson 確信今天的人工智能沒有感知能力。然而,他的評論表明他相信人工智能最終將是有感知的。當他遇到真正有感知力的人工智能時,他怎么會知道呢?他會尋找什么?
你是你的所作所為
在有關 AI 的辯論中,懷疑論者經常以簡化的方式描述該技術,以淡化其能力。
正如一位 AI 研究人員在回應 Blake Lemoine 新聞時所說的那樣:“使用更高維度的參數函數從符號和數據處理中希望獲得意識、理解或常識是很神秘的?!?nbsp;在最近的一篇博客文章中,Gary Marcus 認為,今天的 AI 模型甚至都不是“遠程智能的”,因為“它們所做的只是匹配模式并從海量統計數據庫中提取數據?!?nbsp;他認為 Google 的大型語言模型 LaMDA 只是“文字電子表格”。
這種推理方式具有誤導性,是微不足道的。畢竟,如果我們這樣選擇,我們可以以類似的簡化方式構建人類智能:我們的大腦“只是”大量以特定方式相互連接的神經元,“只是”我們頭骨內的基本化學反應的集合。
但這沒有抓住重點。人類智能的力量和魔力不在于特定的機制,而在于以某種方式產生的令人難以置信的涌現能力。簡單的基本功能可以產生深刻的智力系統。
最終,我們必須根據人工智能的能力來判斷它。
如果我們將五年前的人工智能狀態與今天的技術狀態進行比較,毫無疑問,由于自我監督學習等領域的突破,其能力和深度以顯著(并且仍在加速)的方式擴展,變壓器和強化學習。
人工智能不像人類智能。人工智能何時以及是否會變得有感知力——在 Nagel 的表述中,它何時以及是否曾經“像某樣東西”成為一個人工智能——它將無法與成為人類的情況相提并論。人工智能是它自己獨特的、陌生的、迷人的、快速發展的認知形式。
重要的是人工智能可以實現什么。在基礎科學(如 AlphaFold)方面取得突破,應對氣候變化等物種層面的挑戰,促進人類健康和長壽,加深我們對宇宙如何運作的理解——這些結果是對 AI 力量和復雜性的真正考驗。