成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Transformer模仿大腦,在預測大腦成像上超越42個模型,還能夠模擬感官與大腦之間的傳輸

人工智能
計算神經科學家Martin Schrimpf分析了43種不同的神經網絡模型,以觀察它們對人類神經活動測量結果:功能磁共振成像(fMRI)和皮層腦電圖(EEG)報告的預測能力。

現在很多AI應用模型,都不得不提到一個模型結構:

Transformer。

它拋棄了傳統的CNN和RNN,完全由Attention機制組成。

Transformer不僅賦予了各種AI應用模型寫文作詩的功能,而且在多模態方面也大放異彩。

尤其是ViT(Vision Transformer)出來之后,CV和NLP之間的模型壁壘被打破,僅使用Transformer一個模型就能夠處理多模態的任務。

(誰看完不得感嘆一句它的強大啊)

雖然一開始Transformer是為語言任務而設計的,但它在模仿大腦方面也有著很大的潛力。

這不,有位科學作家寫了篇博客,就是關于Transformer是如何進行大腦建模的。

圖片

來康康他是怎么說的?

Transformer:做大腦做的事

首先,還得梳理一下它的演變過程。

Transformer機制在5年前首次出現,它能夠有這么強大的表現,很大程度上歸功于其Self-attention機制。

至于Transformer是如何模仿大腦的,繼續往下看。

在2020年,奧地利計算機科學家Sepp Hochreiter的研究團隊利用Transformer重組了Hopfield神經網絡 (一種記憶檢索模型,HNN)。

其實,Hopfield神經網絡在40年前就已經被提出,而研究團隊之所以時隔數十年選擇重組這個模型原因如下:

其一,這個網絡遵循一個普遍的規律:同時活躍的神經元之間彼此會建立很強的聯系。

其二,Hopfield神經網絡在檢索記憶的過程中與Transformer執行Self-attention機制時有一定的相似之處。

所以研究團隊便將HNN進行重組,讓各個神經元之間建立更好的聯系,以便存儲和檢索更多的記憶。

重組的過程,簡單來說,就是把Transformer的注意力機制融合進HNN,使原來不連續的HNN變為可連續態。

圖片

△圖源:維基百科

重組之后的Hopfield網絡可以作為層集成到深度學習架構中,以允許存儲和訪問原始輸入數據、中間結果等。

因此,Hopfield本人和麻省理工學院沃森人工智能實驗室的Dmitry Krotov都稱:

基于Transformer的Hopfield神經網絡在生物學上是合理的。

雖說這在一定程度上與大腦的工作原理相像,但在某些方面還不夠準確。

因此,計算神經科學家Whittington和Behrens調整了Hochreiter的方法,對重組后的Hopfield網絡做出了一些修正,進一步提高了該模型在神經科學任務中(復制大腦中的神經放電模式)的表現。

圖片

△Tim Behrens (左) James Whittington(右) 圖源:quantamagazine

簡單來說,就是在編碼-解碼時,模型不再把記憶編碼為線性序列,而是將其編碼為高維空間中的坐標。

具體而言,就是在模型中引入了TEM(Tolman-Eichenbaum Machine)。
TEM是為了模仿海馬體的空間導航作用而構建的一個關聯記憶系統。

它能夠概括空間和非空間的結構知識,預測在空間和關聯記憶任務中觀察到的神經元表現,并解釋在海馬和內嗅皮層中的重新映射現象。

將擁有這么多功能的TEM與Transformer合并,組成TEM-transformer(TEM-t)。

然后,再讓TEM-t模型在多個不同的空間環境中進行訓練,環境的結構如下圖所示。

圖片

在TEM-t中,它依舊擁有Transformer的Self-attention機制。這樣一來,模型的學習成果便能遷移到新環境中,用于預測新的空間結構。

研究也顯示,相較于TEM,TEM-t在進行神經科學任務時效率更高,而且它也能在更少學習樣本的情況下處理更多的問題。

圖片

Transformer在模仿大腦模式的道路上越來越深入,其實換句話說,Transformer模式的發展也在不斷促進我們理解大腦功能的運作原理。

不僅如此,在某些方面,Transformer還能提高我們對大腦其他功能的理解。

Transformer幫助我們理解大腦

比如說,在去年,計算神經科學家Martin Schrimpf分析了43種不同的神經網絡模型,以觀察它們對人類神經活動測量結果:功能磁共振成像(fMRI)和皮層腦電圖(EEG)報告的預測能力。

其中,Transformer模型幾乎可以預測成像中發現的所有變化。

倒推一下,或許我們也可以從Transformer模型中預見大腦對應功能的運作。

除此之外,最近計算機科學家Yujin Tang和 David Ha設計了一個模型,可以通過Transformer模型以隨機、無序的方式有意識地發送大量數據,模擬人體如何向大腦傳輸感官觀察結果。

這個Transformer就像人類的大腦一樣,能夠成功地處理無序的信息流。

雖然Transformer模型在不斷進步,但也只是朝著精確大腦模型邁出的一小步,到達終點還需要更深入的研究。

如果想詳細了解Transformer是如何模仿人腦的,可以戳下方鏈接~

參考鏈接:

[1]https://www.quantamagazine.org/how-ai-transformers-mimic-parts-of-the-brain-20220912/

[2]https://www.pnas.org/doi/10.1073/pnas.2105646118

[3]https://openreview.net/forum?id=B8DVo9B1YE0?

責任編輯:武曉燕 來源: 量子位
相關推薦

2023-03-03 13:06:34

大腦分層預測

2022-01-04 11:00:15

AI 數據人工智能

2022-09-26 15:23:38

模型Transforme

2013-05-10 10:02:45

微芯片記憶植入

2025-05-27 01:00:00

硅基模型碳基大腦AI

2025-03-31 08:12:00

模型AI訓練

2021-11-29 10:09:50

AI 強化學習人工智能

2021-04-13 05:38:35

Kubernetes存儲數據庫

2024-06-17 13:34:54

2012-01-06 09:32:31

云計算智慧城市

2021-10-19 15:58:39

云計算智能系統數據分析

2020-04-30 16:20:16

智慧城市數據設備

2017-09-15 14:48:44

汽車智能互聯網

2021-01-28 15:49:35

智慧城市城市大腦

2011-11-01 11:29:10

IBM藍色基因超級計算機

2022-09-30 15:26:57

人工智能技術

2011-10-17 13:54:30

IBM仿生計算機

2023-05-08 12:32:20

AI讀心

2021-09-30 11:14:17

谷歌框架技術

2020-10-22 15:05:11

人工智能
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 午夜影院在线观看 | 视频一区在线 | 精品久久久久久国产 | 99re在线视频 | 精品福利一区 | 秋霞电影院午夜伦 | 亚洲福利一区二区 | 麻豆视频在线免费观看 | 亚洲精品99| 国产精品久久久久久久久免费软件 | 国产精品黄| 尤物视频在线免费观看 | 91av视频在线观看 | 美女人人操 | 欧美日韩国产中文字幕 | 不卡视频一区二区三区 | 日韩中文字幕免费在线 | 国产精品中文 | 亚洲一二三区av | 国产精品久久久久久久免费大片 | 国产精品久久久久久久久污网站 | 国产一级在线 | 国产在线97 | 国产精品一区二区久久 | 91九色porny首页最多播放 | 亚洲香蕉在线视频 | 欧美日韩高清免费 | 粉嫩国产精品一区二区在线观看 | 婷婷丁香在线视频 | 天天拍天天射 | 欧美一区二区三区的 | 一区二区成人 | 国产成人精品一区二三区在线观看 | 成年人视频在线免费观看 | 亚洲品质自拍视频 | 在线一区 | 成人免费小视频 | 国产精品99久久久久久www | 欧洲在线视频 | 伊人免费在线观看高清 | 国产精品日韩在线 |