成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

12年前上手深度學習,Karpathy掀起一波AlexNet時代回憶殺,LeCun、Goodfellow等都下場

人工智能 新聞
近日,知名 AI 研究科學家 Andrej Karpathy 的一條帖子,讓參與這波深度學習變革的許多大佬們陷入了回憶殺。從圖靈獎得主 Yann LeCun 到 GAN 之父 Ian Goodfellow,紛紛憶往昔。

沒想到,自 2012 年 AlexNet 開啟的深度學習革命已經過去了 12 年。

而如今,我們也進入了大模型的時代。

近日,知名 AI 研究科學家 Andrej Karpathy 的一條帖子,讓參與這波深度學習變革的許多大佬們陷入了回憶殺。從圖靈獎得主 Yann LeCun 到 GAN 之父 Ian Goodfellow,紛紛憶往昔。

到目前為止,該帖子已經有 63 萬 + 的瀏覽量。

在帖子中,Karpathy 提到:有一個有趣的事實是,很多人可能聽說過 2012 年 ImageNet/AlexNet 的時刻,以及它開啟的深度學習革命。不過,可能很少有人知道,支持這次競賽獲勝作品的代碼是由 Alex Krizhevsky 從頭開始,用 CUDA/C++ 手工編寫的。這個代碼倉庫叫做 cuda-convnet, 當時托管在 Google Code 上:

https://code.google.com/archive/p/cuda-convnet/

Karpathy 想著 Google Code 是不是已經關閉了 (?),但他在 GitHub 上找到了一些其他開發者基于原始代碼創建的新版本,比如:

圖片

https://github.com/ulrichstern/cuda-convnet

“AlexNet 是最早將 CUDA 用于深度學習的著名例子之一。”Karpathy 回憶說,正是因為使用了 CUDA 和 GPU,AlexNet 才能處理如此大規模的數據 (ImageNet),并在圖像識別任務上取得如此出色的表現。“AlexNet 不僅僅是簡單地用了 GPU,還是一個多 GPU 系統。比如 AlexNet 使用了一種叫做模型并行的技術,將卷積運算分成兩部分,分別運行在兩個 GPU 上。”

Karpathy 提醒大家,你要知道那可是 2012 年啊!“在 2012 年 (大約 12 年前),大多數深度學習研究都是在 Matlab 中進行,跑在 CPU 上,在玩具級別的數據集上不斷迭代各種學習算法、網絡架構和優化思路。” 他寫道。但 AlexNet 的作者 Alex、Ilya 和 Geoff 卻做了一件與當時的主流研究風格完全不同的事情 ——“不再糾結于算法細節,只需要拿一個相對標準的卷積神經網絡 (ConvNet),把它做得非常大,在一個大規模的數據集 (ImageNet) 上訓練它,然后用 CUDA/C++ 把整個東西實現出來。”

Alex Krizhevsky 直接使用 CUDA 和 C++ 編寫了所有的代碼,包括卷積、池化等深度學習中的基本操作。這種做法非常創新也很有挑戰性,需要程序員對算法、硬件架構、編程語言等有深入理解。

從底層開始的編程方式復雜而繁瑣,但可以最大限度地優化性能,充分發揮硬件計算能力,也正是這種回歸根本的做法為深度學習注入了一股強大動力,構成深度學習歷史上的轉折點。

有意思的是,這一段描述勾起不少人的回憶,大家紛紛考古 2012 年之前自己使用什么工具實現深度學習項目。紐約大學計算機科學教授 Alfredo Canziani 當時用的是 Torch,“從未聽說有人使用 Matlab 進行深度學習研究......” 。

對此 Yann lecun 表示同意,2012 年大多數重要的深度學習都是用 Torch 和 Theano 完成的。

Karpathy 有不同看法,他接話說,大多數項目都是在用 Matlab ,自己從未使用過 Theano,2013-2014 年使用過 Torch。

一些網友也透露 Hinton 也是用 Matlab。

看來,當時使用 Matlab 的并不少:

知名的 GAN 之父 Ian Goodfellow 也現身說法,表示當時 Yoshua 的實驗室全用 Theano,還說自己在 ImageNet 發布之前,曾為 Alex 的 cuda-convnet 編寫了 Theano 捆綁包。

谷歌 DeepMind 主管 Douglas Eck 現身說自己沒用過 Matlab,而是 C++,然后轉向了 Python/Theano。

圖片

紐約大學教授 Kyunghyun Cho 表示,2010 年,他還在大西洋彼岸,當時使用的是 Hannes SChulz 等人做的 CUV 庫,幫他從 Matlab 轉向了 python。

圖片

Lamini 的聯合創始人 Gregory Diamos 表示,說服他的論文是吳恩達等人的論文《Deep learning with COTS HPC systems》。

論文表明 Frankenstein CUDA 集群可以擊敗 10,000 個 CPU 組成的 MapReduce 集群。

論文鏈接:https://proceedings.mlr.press/v28/coates13.pdf

不過,AlexNet 的巨大成功并非一個孤立的事件,而是當時整個領域發展趨勢的一個縮影。一些研究人員已經意識到深度學習需要更大的規模和更強的計算能力,GPU 是一個很有前景的方向。Karpathy 寫道,“當然,在 AlexNet 出現之前,深度學習領域已經有了一些向規模化方向發展的跡象。例如,Matlab 已經開始初步支持 GPU。斯坦福大學吳恩達實驗室的很多工作都在朝著使用 GPU 進行大規模深度學習的方向發展。還有一些其他的并行努力。”

考古結束時,Karpathy 感慨道  “在編寫 C/C++ 代碼和 CUDA kernel 時,有一種有趣的感覺,覺得自己仿佛回到了 AlexNet 的時代,回到了 cuda-convnet 的時代。”

當下這種 "back to the basics" 的做法與當年 AlexNet 的做法有著異曲同工 ——AlexNet 的作者從 Matlab 轉向 CUDA/C++,是為了追求更高的性能和更大的規模。雖然現在有了高級框架,但在它們無法輕松實現極致性能時,仍然需要回到最底層,親自編寫 CUDA/C++ 代碼。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2019-05-27 23:19:31

QQ騰訊回憶

2016-12-06 08:00:27

科技新聞早報

2021-08-25 15:35:45

AI 數據人工智能

2021-01-01 09:03:44

故障HAProxy服務器

2015-12-17 12:51:27

2021-07-10 07:38:27

Windows 11操作系統微軟

2020-08-06 17:16:47

抖音Tiktok美國

2019-12-30 16:50:44

區塊鏈數字貨幣比特幣

2021-09-01 13:46:07

GitHub Copi漏洞代碼訓練

2022-03-16 18:38:06

AI特斯拉神經網絡

2022-02-25 14:48:45

AI模型Meta

2024-08-09 14:51:00

2021-12-26 00:13:24

Log4jLogback漏洞

2023-08-01 09:48:07

AIChatGPT

2021-11-04 18:27:02

緩存架構Eureka

2014-09-02 10:19:22

IT程序員

2010-10-21 14:38:07

網絡融合

2020-04-20 10:45:45

戴爾

2020-05-25 15:19:53

Python

2020-07-31 16:54:52

戴爾
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产成人小视频 | 理论片免费在线观看 | 欧美黑人激情 | 国产精品视频在线免费观看 | 欧美福利视频 | 日韩av中文 | 久久久毛片 | 国产成人91视频 | 女人精96xxx免费网站p | 西西裸体做爰视频 | 免费在线观看av的网站 | 国产一区亚洲 | 亚洲成人精品一区二区 | 精品亚洲永久免费精品 | 二区在线视频 | 久久久久99 | www.婷婷亚洲基地 | 在线观看亚洲专区 | 日韩欧美福利视频 | 欧美激情在线精品一区二区三区 | 国产精品成人一区二区三区 | 黄色大片免费观看 | 久久久久国产一区二区三区 | 交专区videossex农村 | 国产精品久久免费观看 | 天天爽夜夜操 | 91亚洲精品在线观看 | 亚洲精品乱码久久久久久久久 | 免费在线观看黄色av | 亚洲一区精品在线 | 中文字幕一区在线观看视频 | 天天操夜夜爽 | 中文字幕av一区 | 黄色一级大片在线免费看产 | 国产精品视频一区二区三区, | 久久国产精品99久久久久久丝袜 | 国产午夜精品一区二区 | 国产一区二区三区在线看 | 日一区二区三区 | 久久精品久久久 | 五月天婷婷丁香 |