游戲背后的AI故事:小樣本學習與遷移學習
2019年,一場人與機器的游戲對戰——Open AI Five以全面壓倒性的表現戰勝了Dota2世界冠軍戰隊OG。
棋類游戲一直被視為頂級人類智力及人工智能的試金石。
人工智能與人類棋手的對抗一直在不斷上演中,從三子棋、五子棋、跳棋、象棋、軍棋、國際象棋、再到最高水平的圍棋類游戲,計算機人工智能程序都已經打敗了人類。
人工智能取得的成績讓人側目,至少在游戲領域,已經全面壓倒人類。
然而在這令人側目驚嘆的表現背后,是人類遠遠無法企及的大數據訓練的結果,以訓練Open AI Five為例,看看它的學習過程消耗了多少資源:
12.8萬個CPU;
256塊P100;
長達數個月的訓練……
如果轉化成更容易理解的數據,就是相當于一個游戲選手不分日夜的持續練習45000年的游戲,才能達到同樣的戰果。
按照人類目前的壽命和思維容量,顯然這是一個永遠不可能完成的任務。
這就是目前人工智能行業,尤其是深度學習領域,當前面臨的最大問題與挑戰之一,具體主要包括包括:
大量的數據依賴;
長時間的學習與訓練;
高昂的軟硬件訓練成本……
那么,解決方法是什么呢?
2020年,學術界提出了因果關系的小樣本學習的概念。
如何進行小樣本學習呢?其實這個概念與幾年前楊強教授(現微眾銀行首席人工智能官)與戴文淵(現第四范式首席執行官)提出的遷移學習概念比較類似。
小樣本學習與遷移學習,都可以說是學習模仿人類,看看人類是如何快速學習各種知識的。
以玩游戲為例:
星際爭霸系列游戲,涉及人族、神族、蟲族三個種族,數十個兵種,從戰略到戰術,可以演化為成千上萬種打法。這個游戲,不到最后一刻,往往很難猜出誰勝誰負。因此,也成為了人工智能重點“練手”的即時策略對戰游戲。

對于喜歡玩即時策略游戲的人而言,如果會玩星際爭霸系列游戲,那么其他的即時策略類游戲,比如:暴雪的魔獸爭霸,DOTA2系列;微軟的帝國時代系列等等,就很容易上手了。
因為可以運用之前的游戲經驗,玩同類型的游戲,其背后的思路方法是類似的,觸類旁通,舉一反三,就是這個意思。
同樣的,對于機器學習而言,在少量樣本上快速泛化的核心,就是借助先驗知識(類似人類的經驗)。
而小樣本學習就致力于通過極少的訓練數據(1-5個樣本/類)來實現模型的泛化(機器學習算法對新鮮樣本的適應能力)。
這里面,還要提出一個是指機器學習“預訓練”的概念。
具體來說,就是在大型數據集上,學習一個強大的神經網絡作為特征提取器,例如:
CV(計算機視覺)里面常見的在ImageNet上預訓練的ResNet網絡;
NLP(自然語言處理)里面在Wikipedia上預訓練的BERT;
都是代表一種特征表達的先驗知識,也就是預訓練。
遷移學習里面,依據的“庫伯學習圈”理論,也是類似的原理。
預訓練相當于給了小樣本學習一個好的起點,就像一個人在上課前預習了大量的知識點。
當然,如果想獲得更好的效果,還要了解一下元學習(meta learning)的概念,簡單來說就是通過不斷學習,找到更好效果的機器學習方法。
所以,人工智能與機器學習,簡單來說,就是不斷學習和模仿人類思維的過程。
關注東方林語,一起了解更多人工智能小知識。
附:
NeurIPS 2020接收的小樣本學習論文
Interventional Few-Shot Learning,網址如下:
https://arxiv.org/abs/2009.13000
論文的代碼在Github上開源網址:
https://github.com/yue-zhongqi/ifsl