成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

AutoML、AutoKeras......這四個「Auto」的自動機器學習方法你分得清嗎?

開發 開發工具 機器學習
本文對比了四種自動機器學習方法——AutoML、AutomatedML、AutoKeras、Auto-sklearn的設計理念及適用場景。

讓我們先來看一個簡短的童話故事…

從前,有一個魔法師,他使用一種無人再使用的編程語言,在一種無人再使用的框架下訓練模型。一天,一位老人找到他,讓他為一個神秘的數據集訓練一個模型。

這位魔法師孜孜不倦,嘗試了數千種不同的方式訓練這個模型,但很不幸,都沒有成功。于是,他走進了他的魔法圖書館尋找解決辦法。突然,他發現了一本關于一種神奇法術的書。這種法術可以把他送到一個隱藏的空間,在那里,他無所不知,他可以嘗試每一種可能的模型,能完成每一種優化技術。他毫不猶豫地施展了這個法術,被送到了那個神秘的空間。自那以后,他明白了如何才能得到更好的模型,并采用了那種做法。在回來之前,他無法抗拒將所有這些力量帶走的誘惑,所以他把這個空間的所有智慧都賜予了一塊名為「Auto」的石頭,這才踏上了返程的旅途。

從前,有個擁有「Auto」魔石的魔法師。傳說,誰掌握了這塊魔法石的力量,誰就能訓練出任何想要的模型。

[[249121]]

哈利波特與死亡圣器

這樣的故事太可怕了,不是嗎?我不知道這個故事是不是真的,但在現代,機器學習領域的頭號玩家們似乎很有興趣將這樣的故事變成現實(可能會略有改動)。在這篇文章中,我將分享哪些設想是可以實現的,并幫助你直觀地理解它們的設計理念(盡管所有工具的名字中都有「auto」這個詞,但它們之間似乎并沒有共同之處)。

動機——人生艱難

在給定的數據集中實現當前***模型性能通常要求使用者認真選擇合適的數據預處理任務,挑選恰當的算法、模型和架構,并將其與合適的參數集匹配。這個端到端的過程通常被稱為機器學習工作流(Machine Learning Pipeline)。沒有經驗法則會告訴我們該往哪個方向前進,隨著越來越多的模型不斷被開發出來,即使是選擇正確的模型這樣的工作也變得越來越困難。超參數調優通常需要遍歷所有可能的值或對其進行抽樣、嘗試。然而,這樣做也不能保證一定能找到有用的東西。在這種情況下,自動選擇和優化機器學習工作流一直是機器學習研究社區的目標之一。這種任務通常被稱為「元學習」,它指的是學習關于學習的知識。

AZURE 的自動化機器學習(試用版)

  • 開源與否:否
  • 是否基于云平臺:是(可以完成任何計算目標的模型的評價和訓練)
  • 支持的模型類別:分類、回歸
  • 使用的技術:概率矩陣分解+貝葉斯優化
  • 訓練框架: sklearn

這種方法的理念是,如果兩個數據集在一些工作流中能得到類似的(即相關的)結果,那么它們在其它的工作流中可能也會產生類似的結果。這聽起來可能似曾相識。如果你以前處理過推薦系統的協同過濾問題,你就知道「如果兩個用戶過去喜歡相同的項目,那么將來他們喜歡相似項目的可能性就會更大」。

由工作流 P 和數據集 D 組成的輸入矩陣的可視化。數字對應于數據集 D 在工作流 P 上得到的平衡均值。

要解決這個問題意味著兩件事:學習一種隱藏的表示方法來捕獲不同數據集和不同機器學習工作流之間的關系,以預測某工作流在給定數據集上能夠獲得的準確率;學習一種函數,能夠成功地告訴你下一步應該嘗試哪個工作流。***個任務是通過創建一個平衡后的準確率組成的矩陣來完成的,不同的工作流可以應對不同的數據集。論文《Probabilistic Matrix Factorization for Automated Machine Learning》描述了該方法,詳細說明了他們在超過 600 個數據集上嘗試的 42,000 個不同的機器學習工作流。也許這與你今天在 Azure 的試用版中看到的是不同的,但它可以為你提供一種思路。作者指出,隱藏表征不僅成功地捕獲了關于模型的信息,而且成功地捕獲了關于超參數和數據集特征的信息(注意,這個學習過程是以無監督的方式進行的)。

目前所描述的模型可以作為已經評估的工作流的函數來預測每個機器學習工作流的預期性能,但是還沒有對下一步應該嘗試哪個工作流給出任何指導。由于他們使用的是矩陣分解的概率版本,該方法可以生成關于工作流性能的預測后驗分布,從而允許我們使用采集函數(貝葉斯優化)來指導對機器學習工作流空間的探索。基本上,該方法可以選擇出下一個可以***化預期的準確率提升的工作流。

然而,推薦系統飽受一個非常特殊的問題的困擾:冷啟動。如果一個新的數據集出現在系統中(也就是你的數據集),那么模型無從知曉這個新的數據集與什么相似。為了解決冷啟動問題,我們可以從數據集中計算出一些元特征,以捕獲觀測次數、分類的類別數、值的范圍等特征。然后通過這些指標在已知數據集的空間中確定出一個封閉的數據集。他們在不同的工作流上嘗試了 5次,直到開始使用采集函數來通知自動機器學習系統接下來要嘗試的數據集。注意,這個方法不需要訪問實際的數據集,只需要訪問本地計算出的元特性(這大大減小了開銷)。

谷歌的 AUTOML(測試版)

  • 開源與否:否
  • 是否基于云平臺:是(訓練和評價)
  • 支持的模型類別:用于分類的卷積神經網絡(CNN)、循環神經網絡(RNN)、長短期記憶網絡(LSTM)
  • 使用的技術:帶梯度策略更新的強化學習
  • 訓練框架:TensorFlow

說到神經網絡,最近***進的模型的成功離不開從功能設計到架構設計的范式轉換。也就是說,構建能夠以無監督的方式從數據中學習***表征的機器學習架構,而不是直接設計這樣的特性(這是復雜的,需要大量關于數據的先驗知識)。然而,設計架構仍然需要大量的知識和時間。谷歌 AutoML 的解決思路是創建一個元模型,該模型能夠學習一種方法,為子模型設計和生成能夠在感興趣的數據集上取得良好性能的架構。

他們使用實現為 RNN 的神經架構搜索,生成編碼為長度可變token序列(「字符串」的一種精妙表達方式)的架構。

使用該方法生成的 CNN 的編碼。每個顏色框對應于RNN生成的建議體系架構的一個參數(或token)。

一旦生成了一個架構,就會構建并訓練所提出的模型,最終記錄所獲得的精度。RNN經過訓練,使用了強化學習策略,該策略更新了RNN的參數,以便隨著時間的推移生成更好的架構。

生成的token序列可以看作是生成架構時應該執行的動作(action)序列。該模型最終會得到一個數據集上的準確率 R,我們可以考慮將 R 作為獎勵信號與強化學習算法一起訓練 RNN。然而,這樣的獎勵是不可微的,這就是為什么他們建議通過一些改進措施,使用策略梯度方法迭代更新參數(如Williams 等人在 1992 所提出的方法)。由于訓練過程非常耗時,他們使用分布式訓練和異步參數更新來加速學習過程,如 Dean 等人在 2012 發表的論文中提出的方法。

它能生成什么樣的模型?根據谷歌大腦發表的相關論文《NEURALARCHITECTURE SEARCH WITH REINFORCEMENT LEARNING》,在卷積架構方面,他們將修正過的線性單元用于非線性模型(Nair & Hinton, 2010)、批量歸一化(Ioffe &Szegedy, 2015)和跳躍連接(Szegedy et al., 2015 and He et al.,2016a)。對于每個卷積層,它可以在 [1,3,5,7] 中選擇一個濾波器高度,在 [1,3,5,7] 中選擇一個濾波器寬度,在 [24,36,48] 中選擇多個濾波器。在步長方面,它必須預測 [1,2,3] 中的步長。對于 RNN 和 LSTM,該架構支持在[identity,tanh, sigmoid, relu] 中選擇激活函數。RNN 神經元的輸入對的數量(「基數」)設置為 8。

AUTOKERAS

  • 開源與否:是
  • 是否基于云平臺:否
  • 支持的模型類別:用于分類的卷積神經網路(CNN)、循環神經網絡(RNN)、長短期記憶網絡(LSTM)
  • 使用的技術:高效神經架構搜索(參見《Efficient NeuralArchitecture Search via Parameter Sharing》)
  • 訓練框架:Keras

AutoKeras 和谷歌AutoML 的構建思路相同:它使用一個通過循環訓練的 RNN 控制器,對候選架構(即子模型)進行采樣,然后對其進行訓練,以測量其在期望任務中的性能。接著,控制器使用性能作為指導信號,以找到更有前景的架構。然而,我們之前沒有提到計算過程的代價有多高。實際上,神經架構搜索在計算上非常昂貴、耗時,例如 Zoph 等人在 2018 年發表的論文使用 450 個 GPU 運行了大約 4 萬個 GPU 小時。另一方面,使用更少的資源往往產生傾倒的結果。為了解決這個問題,AutoKeras使用了高效神經架構搜索(ENAS)。

ENAS 應用了一個類似于遷移學習的概念,其思想是:在特定任務上為特定模型學習的參數可以用于其他任務上的其他模型。因此,ENAS 迫使所有生成的子模型共享權值,從而刻意防止從頭開始訓練每一個子模型。這篇論文的作者表明,ENAS 不僅可以在子模型之間共享參數,還能夠獲得非常強的性能。

Auto-sklearn

  • 開源與否:是
  • 是否基于云平臺:否
  • 支持的模型類別:分類、回歸
  • 使用的技術:貝葉斯優化+自動集成構造
  • 訓練框架:sklearn

Auto-sklean 是基于Auto-Weka(https://www.automl.org/automl/autoweka/)使用的 CASH(組合算法選擇和超參數優化)問題的定義以及和 AzureAutomated ML 相同的思路構建的:他們考慮同時選擇一個學習算法和設置其超參數的問題。他們提出的主要區別是將兩個額外的步驟合并到主進程中:一開始是元學習步驟,***是自動化集成構造步驟,詳情請參閱論文《Efficient and Robust Automated Machine Learning》。

auto-sklearnAutoML 方法

auto-sklearnAutoML 方法

該方法使用了全部 38 個元特征來描述數據集,包括簡單的、信息論的和統計的元特征,如數據點的數量、特征和分類,以及數據偏度和目標的熵。利用這些信息,他們會選擇 k 個采樣點作為貝葉斯優化的初始采樣點(seed)。注意,這種元學習方法通過使用數據集存儲庫來獲得強大的功能(就像 Azure Automated ML 那樣)。

在完成貝葉斯優化之后,它們會構建一個由所有嘗試過的模型組成的集成模型。這一步的思路是將訓練每個模型所做的努力都存儲下來。他們沒有拋棄這些模型而選擇更好的模型,而是將它們存儲起來,最終構建出一個它們的集成模型。這種自動集成構造方法避免了讓自己陷入單個超參數的設置中,因此魯棒性更強(并且不容易過擬合)。他們使用集成選擇(這個貪婪過程從空集成開始,迭代地添加能夠***化集成驗證性能的模型)來構建集成模型。

結語和點評

每一種方法都有各自的優缺點,也有其各自的賽道。Azure Automatic ML 和 auto-sklearn 是基于相同的思想構建的,它們被用于回歸和分類任務,計算量較少,因此實現成本較低。他們不需要整個數據集可見(只要構造的模型能夠生成的),如果對數據隱私有要求的話,那么使用這兩種框架是很合適的。然而,他們嚴重依賴于已經獲取到的數據集。除了事先處理過的機器學習工作流外,他們不能嘗試任何新的東西。我個人十分懷疑能否把這樣的方法稱為元學習。

另一方面,谷歌 AutoML 和 AutoKeras 也使用了相同的方法,它們試圖學習一種從頭開始構建模型的方法。這是一個更有野心的做法,這也是為什么它在動作空間上更有限(CNN、RNN、LSTM)。然而,他們使用的強化學習方法使他們能夠探索構建模型的新方法(谷歌聲稱他們的方法發現了一個比他們已有的模型好 1.05 倍的模型)。這聽起來更像是元學習。然而,強化學習方法需要消耗大量的計算能力,這也就是它們每小時收費 20 美元的原因。而這種情況下,AutoKeras 為了提高準確率進行的性能優化是很有吸引力的(另外它是開源的,如果你關心隱私的話,這也是一個好消息)。

原文鏈接:

https://medium.com/@santiagof/auto-is-the-new-black-google-automl-microsoft-automated-ml-autokeras-and-auto-sklearn-80d1d3c3005c

【本文是51CTO專欄機構“機器之心”的原創譯文,微信公眾號“機器之心( id: almosthuman2014)”】

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2017-12-14 20:25:32

2018-04-19 22:57:43

無線接入網vRANRAN

2023-11-28 08:25:49

分布式鎖事務

2017-04-12 14:33:01

機器學習數據分析開發

2020-09-26 22:20:52

ML自動機器學習深度學習

2015-10-30 10:23:27

創業選擇思考問題

2023-02-20 07:46:45

機器學習AI 技術

2023-10-23 07:13:04

2017-05-16 11:09:56

2020-06-10 07:37:01

自由軟件開源軟件免費軟件

2018-06-29 15:07:13

代碼工程師軟件開發

2020-12-18 07:42:30

機器學習數據科學

2019-10-29 14:54:20

Kafka消息系統分布式

2022-04-13 15:35:56

交互方案設計師用戶

2015-04-15 11:31:14

智能硬件智能家居

2018-12-20 09:30:59

分布式高并發多線程

2021-08-23 10:37:14

Javascript 機器學習阿里云

2024-10-10 11:49:27

2015-08-13 10:49:33

WLAN無線局域網

2017-07-27 10:46:44

神經網絡機器學習強化學習
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 毛片区| 少妇午夜一级艳片欧美精品 | 激情网站在线观看 | 91干b| 日本精品一区二区三区在线观看 | 欧美一级片久久 | 夜久久| 成人午夜| 国产精品久久视频 | 国产精品视频久久 | 亚洲成人蜜桃 | 一区二区三区四区av | 在线观看国产 | 成人av网页 | 欧美视频第三页 | 国产精品一区二区三区久久 | 欧美黄色片 | 在线精品亚洲欧美日韩国产 | 日韩中文欧美 | 美女视频网站久久 | 国产成人高清成人av片在线看 | 亚洲精品久久久久久久久久久久久 | 一级免费看片 | 国产精品区二区三区日本 | 少妇黄色 | 视频1区 | 欧美性久久 | 夜夜久久 | 中文字幕免费在线 | 久久99精品久久久久子伦 | 国产亚洲精品综合一区 | 亚洲视频在线观看 | 久久精品视频在线观看 | 亚洲成人免费视频在线观看 | 欧美bondage紧缚视频 | 精产国产伦理一二三区 | 免费国产网站 | 午夜精品一区二区三区在线观看 | 麻豆一区二区三区精品视频 | 亚洲国产aⅴ精品一区二区 免费观看av | 91在线成人|