成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

LLM為何頻頻翻車算術題?研究追蹤單個神經元,「大腦短路」才是根源

人工智能
大模型在數學問題上的表現不佳,原因在于采取啟發式算法進行數學運算的,通過定位到多層感知機(MLP)中的單個神經元,可以對進行數學運算的具體過程進行解釋。

由于缺少對運行邏輯的解釋,大模型一向被人稱為「黑箱」,但近來的不少研究已能夠在單個神經元層面上解釋大模型的運行機制。

例如Claude在2023年發表的一項研究,將大模型中大約500個神經元分解成約4000個可解釋特征。

而10月28日的一項研究,以算術推理作為典型任務,借鑒類似的研究方法,確定了大模型中的一個模型子集,能解釋模型大部分的基本算術邏輯行為。 

圖片圖片

論文地址:https://arxiv.org/abs/2410.21272

該研究首先定位了Llama3-8B/70B, Pythia-6.9B及GPT-J四個模型中負責算術計算的模型子集。

如圖1所示,少數注意力頭對大模型面對算術問題的正確率有顯著影響。第一個 MLP(多層感知機) 明顯影響操作數和操作符位置,而中間層和后期層的 MLP 將token信息投影到最后位置,提升正確答案的出現概率。

圖1:Llama3-8B中發現算術相關的模型子集圖1:Llama3-8B中發現算術相關的模型子集

該研究聚焦于單個神經元層面,發現了一組重要的神經元,它們實現了簡單的啟發式算法。只需要關注特定的極少量神經元,就能正確預測大模型進行算術運算的結果(圖2)。

圖2:大模型中每層神經元中只需要關注1.5%的少數子集,就能預測大模型進行四則運算的結果圖2:大模型中每層神經元中只需要關注1.5%的少數子集,就能預測大模型進行四則運算的結果

舉個例子:當輸入的提示詞為“ 226?68= ”時,神經元24|12439在結果介于150和180的減法提示下顯示出高激活值,可被視為一個啟發式算法。而每個啟發式算法識別一個數值輸入模式,并輸出相應的答案。

具體可分為兩種不同的激活模式:第一種直接啟發式指的是在某些神經元中,激活模式取決于兩個操作數,值向量編碼了算術計算的預期結果(圖 3b,c)。

第二種間接激活模式取決于單個操作數對應的神經元中,值向量通常編碼下游處理的特征,而不是直接的計算結果(圖3a)。

圖3:啟發式方法的可視化圖3:啟發式方法的可視化

神經元和運算的因果聯系

該如何確認特定神經元和相關數學運算之間存在因果關系?一種常見的方法是消融分析,即將大模型大模型中特定的神經元敲除,看看模型的效果會有何改變,結果如圖4所示。

圖4:四則運算中敲除對應的算術神經元后模型的性能對比圖4:四則運算中敲除對應的算術神經元后模型的性能對比

去掉了對應神經元后,模型的運算準確性無論加減乘除都顯著下降。

不僅如此,相比去除特定算術神經元時造成的性能下降,可以發現,去除隨機神經元的影響相對較小,而且這種效應在模型8B和70B不同參數量中普遍存在。

圖5:敲除與算術相關的啟發式算法的神經元(實線)相比與算術無關的相同數量的隨機神經元(虛線)圖5:敲除與算術相關的啟發式算法的神經元(實線)相比與算術無關的相同數量的隨機神經元(虛線)

上述結果表明,可僅根據其相關啟發式算法來識別對特定對大模型進行算術重要的神經元,也證明了屬于幾個啟發式算法的神經元與提示正確完成之間的因果關系。

此外,該結果還支持了啟發式算法集合的主張:即每個啟發式算法僅略微提高正確答案的幾率,但它們結合在一起,使得大模型以高概率產生算術題的正確答案。

大模型為何做不對算術題

Llama3-8B模型無法可靠地對每道算術題時給出正確的回答。基于啟發式規則,該研究闡述了模型為何會做錯,可能的機制共有兩種:

第一,由于參數量的限制,大模型缺乏足夠的算術神經元,無法針對每一種情況都給出應對。

第二種原因是,可能存在回憶不完整的情況,比如某個啟發式規則對應的神經元沒有在運算時被觸發。

圖片圖片

圖6:隨機抽取了50個正確完成和50個錯誤完成的算術題目,考察大模型中被正確和錯誤激活的算術神經元個數

如圖6所示,在大模型回答正確及錯誤時,激活的算術神經元個數不存在差異,這不支持前述的第一種算術神經元個數不足的假設。

然而,在大模型回答正確的情況下,更多比例的正確神經元被激活了,而回答錯誤的案例中,應當被激活的神經元激活概率反而較小。

這意味著大模型在特定算術題上失敗的主要原因是對能得出正確答案的神經元缺少泛化能力,而不是算術神經元的數量不足。

「算術神經元」何時誕生

由于其訓練檢查點可供公眾獲取,該研究采用Pythia-6.9B來考察大模型過程中算術神經元的出現階段。

結果顯示,大模型在訓練過程中逐漸發展其最終的算術啟發式機制,且算術神經元在模型訓練早期就已出現。

圖7 :啟發式的算術神經元的百分比隨著訓練增加圖7 :啟發式的算術神經元的百分比隨著訓練增加

在模型訓練的不同階段,移除特定的啟發式神經元會大幅降低模型在所有訓練檢查點的準確性,這表明算術準確性主要來自啟發式,即使在早期階段也是如此。算術啟發式神經元與大模型算術能力的因果關系在整個訓練過程中都存在。

圖8:不同階段敲除算術神經元對大模型進行算術運算準確性的影響圖8:不同階段敲除算術神經元對大模型進行算術運算準確性的影響

結論

理解大模型如何進行數學運算,不僅可以打開大模型內部運行的黑箱,解釋它們為何在簡單的數學題上翻車,例如最著名的「9.11和9.8哪個大」。

這項研究告訴我們,并不是因為大模型缺少相關訓練,而是激活了錯誤的啟發式神經元,例如將這個問題當成了詢問哪個版本更大。

理解了大模型的算術運算,是依賴于啟發式方法集,而非單純的依靠記憶(背題目)或學會規則,這表明提高大模型的數學能力可能需要訓練和架構的根本性改變,而不是像激活引導這樣的小修小補。

對訓練過程的分析結果指出,大模型在訓練早期就學會了這些啟發式方法,并隨時間推移逐漸強化。這可能會導致模型過度擬合到早期的簡單策略,因此可作為之后優化方向的參考。

參考資料:https://arxiv.org/abs/2410.21272

責任編輯:武曉燕 來源: 新智元
相關推薦

2022-03-14 11:04:39

人工智能機器學習神經網絡

2022-02-15 15:20:26

計算神經元研究

2022-10-31 15:17:49

AI系統

2021-10-11 20:19:16

AI

2023-10-13 22:03:32

AI訓練

2024-03-13 08:03:44

LLM人工智能技術

2022-04-09 10:16:52

神經網絡深度學習AI

2021-02-25 14:05:43

技術計算機思維

2021-06-01 09:39:24

人工智能機器學習技術

2019-10-11 14:48:42

技術研發指標

2023-10-07 13:16:40

ChatGPT神經元模型

2021-06-02 14:48:34

3DAI 人工智能

2020-01-23 15:19:26

谷歌Android開發者

2012-10-10 09:32:51

虛擬化

2023-08-21 10:48:25

2023-03-15 15:18:22

神經網絡研究

2021-10-20 10:51:57

AI 數據人工智能

2022-02-08 15:07:37

AI機器學習電子

2018-12-20 11:38:37

神經元神經網絡語言

2024-01-11 15:34:18

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产成人综合av | 国产精品美女在线观看 | 精品一区国产 | h在线 | 久久精品久久久 | 午夜影院视频 | 亚洲一区二区在线电影 | 亚洲欧美日韩电影 | 欧美中文字幕一区二区三区亚洲 | 国产精品福利在线观看 | 免费一级黄色录像 | 91污在线 | 日韩一二区 | 另类 综合 日韩 欧美 亚洲 | 美女国产| 国产精品片 | 国产一区亚洲二区三区 | 一区二区三区在线免费观看 | 98成人网 | 成人免费影院 | hitomi一区二区三区精品 | 97人人澡人人爽91综合色 | 99精品亚洲国产精品久久不卡 | av中文在线| 国产一级片 | 成人免费在线播放视频 | 精品中文字幕在线观看 | 久久久久资源 | 成人h电影在线观看 | 中文字幕 在线观看 | 一区在线观看 | 国产精品a一区二区三区网址 | 精品国产欧美在线 | 欧美精品一区二区在线观看 | 国产高清在线精品一区二区三区 | 天天综合网91 | 欧美激情一区二区三级高清视频 | 蜜桃视频在线观看免费视频网站www | 国产精品178页 | www日韩| 国产91久久精品一区二区 |