Yann LeCun:大模型方向錯了,智力無法接近人類
「語言只承載了所有人類知識的一小部分;大部分人類知識、所有動物知識都是非語言的;因此,大語言模型是無法接近人類水平智能的,」這是圖靈獎得主 Yann LeCun 對于人工智能前景的最新思考。
昨天,他與紐約大學博士后 Jacob Browning 合著的新文章發表在《NOEMA》上,引發了人們的討論。
在文章中,作者討論了當前流行的大規模語言模型,認為其存在明顯的極限。未來 AI 領域努力的方向或許應該是讓機器優先理解真實世界其他層面意義上的知識。
讓我們看看他們是怎么說的。?
前段時間,前谷歌 AI 倫理研究員 Blake Lemoine 聲稱 AI 聊天機器人 LaMDA 像人一樣具有意識,這在領域內掀起了軒然大波。
LaMDA 實際上是一種大型語言模型 (LLM),旨在預測任何給定文本下一個可能的詞。由于許多對話在某種程度上是可預測的,因此這些系統可以推斷出如何使對話保持高效。LaMDA 在這類任務上做得非常出色,以至于 Blake Lemoine 開始懷疑 AI 是否存在「意識」。
領域內的研究者對于這件事持有不同的看法:一些人對機器有意識的想法嗤之以鼻;一些人認為 LaMDA 模型或許沒有,但下一個模型可能有意識。還有一些人指出機器「欺騙」人類這件事并不難。
人們反應的多樣性凸顯了一個更深層次的問題:隨著 LLM 變得越來越普遍和強大,我們對這些模型的觀點似乎越來越難達成一致。多年來,這些系統已經超越了許多「常識」語言推理基準,但這些系統在測試時似乎很少有承諾的常識,甚至容易出現胡說八道、提出不合邏輯、危險的建議。這就引出了一個令人不安的問題:這些系統怎么會如此智能,能力卻又如此有限??
實際上,最根本的問題并不在于人工智能,而是在于語言的有限性。一旦我們放棄了關于意識和語言之間聯系的假設,這些系統就注定只能有關于世界的膚淺理解,永遠無法接近人類的「全面思維」。簡而言之,盡管這些模型已經是地球上最令人印象深刻的人工智能系統,但這些 AI 系統永遠不會像我們人類一樣智能。
在 19 世紀和 20 世紀的大部分時間里,哲學和科學領域的一個主要主題是:知識僅僅是語言。這意味著理解一件事只需理解一句話的內容,并將這句話與其他句子關聯起來。按照這種邏輯,理想的語言形式將是由嚴格的推理規則連接的任意符號組成的邏輯數學的形式。
哲學家 Wittgenstein 說過:「真命題的總和是自然科學。」這一立場是在 20 世紀確立的,后來引起了很多爭議。
一些受過高等教育的知識分子仍然持有觀點:「我們所能知道的一切都可以包含在百科全書中,因此只要閱讀百科全書的所有內容就能讓我們對所有事物都有全面的了解?!惯@種觀點還激發了 Symbolic AI 的許多早期工作,其中將符號處理作為默認范式。對于這些研究人員來說,人工智能知識由大量真實句子的數據庫組成,這些真實的句子通過手工邏輯相互連接,人工智能系統的目標就是在正確的時間輸出正確的句子,即以適當的方式處理符號。
這個概念是圖靈測試的基礎:如果一臺機器「說」出了它應該說的一切,這意味著它知道它在說什么,因為知道正確的句子以及何時使用它們會用到上述人工智能知識。
但這種觀點遭到了嚴厲的批評,反駁的觀點認為:機器可以談論事情,并不意味著它理解正在談論的內容。這是因為語言只是一種高度具體且非常有限的知識表征。所有語言,無論是編程語言、符號邏輯語言還是日??谡Z——都開啟了特定類型的表征模式;它擅長以極高的抽象水平表達離散的對象和屬性以及它們之間的關系。
然而,所有的表征模式都涉及對事物信息的壓縮,但壓縮中留下和遺漏的內容各不相同。語言的表征模式可能會遺漏一些具體的信息作,例如描述不規則的形狀、物體的運動、復雜機制的功能或繪畫上細致入微的筆觸等等。而一些非語言的表征方案可以以一種易于理解的方式表達這些信息,包括標志性知識、分布式知識等。
語言的限制
要了解語言表征模式的缺陷,首先要認識到語言傳遞的信息有多少。事實上,語言是一種傳輸信息的帶寬非常低的方法,特別是在沒有上下文的情況下,孤立的單詞或句子傳達的信息很少。此外,由于同音詞和代詞的數量眾多,許多句子的含義都非常模棱兩可。正如喬姆斯基等研究者所指出的:語言并不是清晰明確的交流工具。
但是人類不需要完美的交流工具,因為我們共享對非語言的理解體系。我們對句子的理解通常取決于對句子所在語境的深入理解,從而使我們能夠推斷出語言表達的含義。我們經常直接談論眼前的事情,比如足球比賽?;蛘咴谀撤N情況下面向社會角色進行交流,比如從服務員那里點菜。
閱讀文本段落也是如此——這種任務破壞了人工智能獲得常識的渠道,卻是一種向兒童教授無上下文閱讀理解技能的流行方法。這種方法側重于使用通用閱讀理解策略來理解文本——但研究表明,兒童對主題的背景知識量實際上是理解的關鍵因素。理解一個句子或段落正確與否取決于對主題內容的基本掌握。?
「很明顯,這些系統深陷于膚淺的理解,永遠不會接近人類所有的全面思維?!?/span>
單詞和句子固有的上下文性質是 LLM 工作的核心。神經網絡通常將知識表示為專有技術,即掌握對上下文高度敏感的模式,并總結規律(具體和抽象)的熟練能力,這些規律對于以精細方式處理輸入是必要的,但只適合有限的任務。
在 LLM 中,這有關系統在現有文本的多個層次上識別模式,既看到單詞在段落中的聯系,也要看到句子是如何在構成它們的大段落中是如何連接在一起的。結果是模型對語言的掌握不可避免地是上下文相關的。每個單詞的理解不是根據其字典含義,而是根據它在各種句子中的作用來理解。由于許多單詞——比如「化油器」、「菜單」、「調試」或「電子」——幾乎只用于特定領域,即使是帶有其中一個詞的孤立句子也會在預測上帶出上下文。
簡而言之,LLM 訓練后可以了解每個句子的背景知識,查看周圍的單詞和句子來拼湊正在發生的事情。這使得他們可以無限可能地使用不同的句子或短語作為輸入,并提出合理(盡管很難沒有缺陷)的方式來繼續對話或填寫文章的其余部分。一個根據人類書寫的段落訓練,用作日常交流的系統,應該擁有能夠高質量對話所必需的一般理解能力。?
淺薄的理解
有些人不愿在這種情況下使用「理解」一詞或稱 LLM 為「智能」,目前還不能說語義理解說服了任何人。批評者指責這些系統在進行某種模仿——這是正確的。這是因為 LLM 對語言的理解雖然令人印象深刻,但卻很膚淺。這種膚淺的認識似曾相識:教室里到處都是「說行話」的學生,他們不知道自己在說什么——實際上是在模仿他們的教授或他們正在閱讀的課文。這只是生活的一部分。我們常常不清楚我們知道些什么,尤其是在從語言中獲得的知識方面。
LLM 對所有事物都獲得了這種膚淺的理解。像 GPT-3 這樣的系統是通過屏蔽句子一部分,或預測段落中下一個單詞來進行訓練的,這樣迫使機器猜測最有可能填補空白的單詞,并糾正錯誤的猜測。該系統最終會熟練地猜測最可能的單詞,從而使自己成為有效的預測系統。
這帶來了一些真正的理解:對于任何問題或謎題,通常只有少數正確答案,但錯誤答案無限多。這迫使系統學習特定于語言的技能,例如解釋笑話、解決單詞問題或解決邏輯難題,以便定期預測這些類型問題的正確答案。
這些技能和相關知識讓機器能夠解釋復雜事物的工作原理、簡化困難的概念、改寫和復述故事,并獲得許多其他與語言相關的能力。正如 Symbolic AI 所假設的那樣——機器不是由邏輯規則鏈接的龐大的句子數據庫,而是將知識表示為上下文高亮內容,用于在給定前一行的情況下提出合理的后一個句子。
「放棄所有知識都是語言的觀點,讓我們意識到我們的知識中有多少是非語言的?!?
但是用語言解釋一個概念的能力不同于實際使用它的能力。系統可以解釋如何執行長除法,同時也可以實際上自己不會做,或者解釋哪些是與之抵觸的,卻又能愉快地持續進行解釋。語境知識以一種形式嵌入——即口述語言知識的能力——但不嵌入另一種形式——作為如何做事的技巧,比如善解人意或敏感地處理困難問題。
后一種專業知識對語言使用者來說是必不可少的,但這并不能使他們掌握語言技能——語言成分并不是主要的。這適用于許多概念,甚至是從講座和書籍中學到的概念:雖然科學課確實有講授的成分,但學生的得分主要基于他們在實驗室的工作。特別是在人文學科之外,能夠談論某事通常不如讓事情正常工作所需的基本技能有用或重要。
一旦我們深入探究,就能輕易看出這些系統實際上是多么的淺?。核鼈兊淖⒁饬Ψ秶陀洃洿蠹s相當于一個段落。如果我們進行對話,很容易忽略這一點,因為我們傾向于只關注最后一兩條評論,應付下一個回復。
但是,更復雜的對話的訣竅——積極傾聽、回憶和重新審視之前的評論、堅持一個主題以提出一個特定的觀點,同時避免干擾等等——都需要比機器擁有的更多的注意力和記憶力。
這進一步減少了它們可以理解的類型:很容易通過每隔幾分鐘就換話題、更改語言或陰陽怪氣來欺騙他們。如果退太多步,系統將重新從頭開始,把你的新觀點與舊評論混為一談,與你切換聊天語言或相信你所說的任何內容。發展一個連貫的世界觀所必需的理解遠遠超出了機器的能力范圍。?
語言之外
放棄所有知識是語言的觀點,這讓我們意識到我們的知識中有相當部分是非語言的。雖然書籍包含許多我們可以解壓和使用的信息,但許多其他物品也是如此:宜家的說明書甚至懶得在圖示旁邊寫說明文字,AI 研究人員通常會先看論文中的圖表,掌握網絡架構,然后再瀏覽文本,旅行者可以按照地圖上的紅線或綠線導航到想去的地方。
這其中的知識超越了簡單的圖標、圖表和地圖。人類直接從探索世界中學到了很多東西,向我們展示了物質和人能與不能表現的東西。物質的結構和人類環境直觀地傳達了很多信息:門把手在手的高度,錘子的把手更軟等等。動物和人類的非語言心理模擬對于規劃場景很常見且有用,可用于制作或逆向工程人工制品。
同樣,通過模仿社會習俗和儀式,我們可以將各種技能傳授給下一代,從準備食物和藥物到在緊張時期平靜下來。我們的許多文化知識是標志性的,或者說是以從熟練的從業者傳授給學徒精確動作的形式。這些微妙的信息模式很難用語言表達和傳達,但其他人仍然可以理解。這也是神經網絡擅長拾取和完善的上下文相關信息的精確類型。
「一個僅受過語言訓練的系統永遠不會接近人類的智能,即使從現在開始一直訓練到宇宙的熱寂?!?
語言很重要,因為它可以以小格式傳達大量信息,特別是在印刷術和互聯網出現之后,它能做到內容的復制和廣泛分發。但是用語言壓縮信息并不是沒有成本的:解碼一個密集的段落需要付出很多努力。人文課可能需要大量課外閱讀,大部分課堂時間需要花費在閱讀困難的段落上。建立深入的理解既費時又費力,但提供了信息。
這就解釋了為什么受過語言訓練的機器可以知道這么多,卻又什么也不懂——它是在通過一個微小的瓶頸獲取一小部分人類知識。但人類知識的那一小部分可以是關于任何事物的,無論是愛情還是天體物理學。因此它有點像鏡子:它給人一種深度的錯覺,幾乎可以反射任何東西,但它只有一厘米厚。如果我們試圖探索它的深處,我們就會撞墻。
做正確的事
這并不會使機器變得更傻,但也表明它們的智能程度有內在的限制。一個僅接受語言訓練的系統永遠不會接近人類的智能,即使從現在開始一直訓練到宇宙的熱寂。這是一個錯誤的知識體系構建方式。但如果我們只停留在表面上,機器無疑似乎會接近人類。而且在許多情況下,表面就足夠了。我們中很少有人真正將圖靈測試應用到其他人身上,積極地質疑他們的理解深度,并強迫他們做多位數乘法問題。大多數談話都是閑聊。
但是,我們不應將 LLM 所擁有的膚淺理解與人類通過觀察世界的精彩、探索世界、在其中實踐以及與文化和其他人互動所獲得的深刻理解混為一談。語言可能是擴展我們對世界理解的有用組成部分,但語言并不會窮盡智力,從許多物種行為上我們都能理解這樣的觀點,例如鴉科動物、章魚和靈長類動物。?
相反,深刻的非語言理解是語言有意義的必要條件。正是因為人類對世界有深刻的理解,所以我們可以很快理解別人在說什么。這種更廣泛、對上下文敏感的學習和知識是一種更基礎、更古老的知識,它是實體生物感知能力出現的基礎,讓生存和繁榮成為可能。
這也是人工智能研究者在尋找人工智能中的常識時關注的更重要的任務。LLM 沒有穩定的身體或世界可以感知——所以它們的知識更多是以單詞開始和結束,這種常識總是膚淺的。我們的目標是讓 AI 系統專注于所談論的世界,而不是單詞本身——但 LLM 并沒有掌握其中的區別。僅通過語言是無法近似這種深刻理解的,這是錯誤的方向。
人類處理各種大語言模型的豐富經驗清楚地表明,僅從言語中可以獲得的東西是如此之少。