成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

我們期待的TensorFlow 2.0還有哪些變化?

新聞 前端
為提高 TensorFlow 的工作效率,TensorFlow 2.0 進行了多項更改,包括刪除了多余的 API,使API 更加一致統一,例如統一的 RNNs (循環神經網絡),統一的優化器,并且Python 運行時更好地集成了 Eager execution 。

 

為提高 TensorFlow 的工作效率,TensorFlow 2.0 進行了多項更改,包括刪除了多余的 API,使API 更加一致統一,例如統一的 RNNs (循環神經網絡),統一的優化器,并且Python 運行時更好地集成了 Eager execution 。

許多 RFC 已經對 TensorFlow 2.0 的這些更改給出了解釋。本指南基于您對 TensorFlow 1.x 有一定的了解的前提,為您介紹在 TensorFlow 2.0 中的開發有什么不同。

API 整理

在 TensorFlow 2.0 中,有許多 1.X 的 API 被刪除或移動 了。也有部分 1.X 的 API 被 2.0 版本的等價 API 所替代:tf.summary,tf.keras.metrics 和 tf.keras.optimizers。自動應用這些重命名,最簡單的方法是使用 TensorFlow 2.0 升級腳本。

Eager execution

TensorFlow 1.X 要求用戶通過調用 tf.* API 手動的將抽象語法樹(圖)拼接在一起。然后,它要求用戶將一組輸出張量和輸入張量傳遞給 session.run() 調用,來手動編譯抽象語法樹。相比之下,TensorFlow 2.0 executes eagerly(如正常使用 Python 一樣)在 2.0 的版本中,其 graphs(抽象語法樹)和 sessions 在實現的細節上應該是一樣的。

不再有全局變量

TensorFlow 1.X 非常依賴于隱式全局命名空間。當你調用 tf.Variable 時,它會被放入默認圖中,即使你忘記了指向它的 Python 變量它也會留在那里。這時,您可以恢復該 tf.Variable(),但前提是您得知道它已創建的名稱。如果您無法控制變量的創建,很難做到這一點。因此,各種機制以及尋找用戶創建變量的框架不斷涌現,試圖幫助用戶再次找到他們的變量。

TensorFlow 2.0 取消了所有這些機制(Variables 2.0 RFC),支持默認機制:跟蹤變量! 如果你不再用到某個 tf.Variable,它就會被回收。

Functions, not sessions

session.run() 的調用幾乎類似于函數調用:指定輸入和要調用的函數,然后返回一組輸出。在 TensorFlow 2.0 中,您可以使用 tf.function() 來修飾 Python 函數以將其標記為 JIT( Just-In-Time )編譯,以便 TensorFlow 將其作為單個圖運行(Functions 2.0 RFC)。

這種機制使得 TensorFlow 2.0 擁有圖模式的許多優點:

  • 性能:該函數可以被優化,例如節點修剪,內核融合等
  • 可移植性:該函數可以導出 / 重新導入(SavedModel 2.0 RFC),允許用戶重用和將 TensorFlow 函數作為模塊共享

# TensorFlow 1.X

outputs = session.run(f(placeholder), feed_dict={placeholder: input})# TensorFlow 2.0

outputs = f(input)

由于能夠自由地穿插 Python 和 TensorFlow 代碼,您能夠充分利用 Python 的表現力。而且,可移植的 TensorFlow 在沒有 Python 解釋器的情況下也可執行。比如:mobile,C ++ 和 JS。避免用戶在添加 @tf.function 時重寫代碼,AutoGraph 會將 Python 構造的一個子集轉換成 TensorFlow 等價物。

TensorFlow 2.0 常用的建議

將代碼重構為更小的函數

TensorFlow 1.X 中的常見使用模式是 “kitchen sink” 策略,即預先列出所有可能計算的并集,然后通過 session.run() 計算選定的張量。在 TensorFlow 2.0 中,用戶應該根據需求將代碼重構為更小的函數。通常情況下,沒有必要用 tf.function 來修飾這些較小的函數;僅使用 tf.function 來修飾高級計算 — 例如,使用只有一個步驟的訓練或使用模型的正向傳遞,將代碼重構為更小的函數。

使用 Keras 層和模型來管理變量

Keras 模型和層提供了方便的變量和 trainable_variables 屬性,以遞歸方式收集所有因變量。這使得本地化管理變量非常方便。

Keras 層 / 模型繼承自 tf.train.Checkpointable 并與 @ tf.function 集成,這使得直接檢查點或從 Keras 對象導出 SavedModel 成為可能。您不一定要使用 Keras 的 fit() API 來集成。

結合 tf.data.Datasets 和 @tf.function

在迭代適合內存的訓練數據時,可以使用常規的 Python 循環。除此之外,tf.data.Dataset 則是從磁盤傳輸訓練數據的***方法。數據集是可迭代的(不是迭代器),工作方式與其他 Python 循環類似。如果您想使用 AutoGraph 的等效圖操作替換 Python 循環,可以通過將代碼包裝在 tf.function() 中,充分利用數據集異步預取 / 流功能來實現。

@tf.function

def train(model, dataset, optimizer):

for x, y in dataset:

with tf.GradientTape() as tape:

prediction = model(x)

loss = loss_fn(prediction, y)

gradients = tape.gradients(loss, model.trainable_variables)

optimizer.apply_gradients(gradients, model.trainable_variables)

如果您使用 Keras.fit() API,則無需擔心數據集迭代。

model.compile(optimizer=optimizer, loss=loss_fn)

model.fit(dataset)

利用 AutoGraph 和 Python 控制流程

AutoGraph 提供了一種將依賴于數據的控制流轉換為圖模式等價的方法,如 tf.cond 和 tf.while_loop。

數據相關控制流常見出現于序列模型中。tf.keras.layers.RNN 包裝了 RNN 單元,允許您靜態或動態地展開循環神經網絡。為了演示,您可以重新實現動態展開,如下所示:

class DynamicRNN(tf.keras.Model):

def __init__(self, rnn_cell):

super(DynamicRNN, self).__init__(self)

self.cell = rnn_cell

def call(self, input_data):

# [batch, time, features] -> [time, batch, features]

input_data = tf.transpose(input_data, [1, 0, 2])

outputs = tf.TensorArray(tf.float32, input_data.shape[0])

state = self.cell.zero_state(input_data.shape[1], dtype=tf.float32)

for i in tf.range(input_data.shape[0]):

output, state = self.cell(input_data[i], state)

outputs = outputs.write(i, output)

return tf.transpose(outputs.stack(), [1, 0, 2]), state

使用 tf.metrics 聚合數據,使用 tf.summary 記錄數據

一套完整的 tf.summary 接口即將發布。您可以使用以下命令訪問 tf.summary 的 2.0 版本:

from tensorflow.python.ops import summary_ops_v2

有關詳細信息,請參閱文末鏈接:

https://github.com/tensorflow/docs/blob/master/site/en/r2/guide/effective_tf2.md

責任編輯:張燕妮 來源: Google TensorFlow 團隊
相關推薦

2017-02-20 16:03:35

Android We谷歌硬件

2015-03-02 14:10:59

WMC

2017-12-28 15:44:59

前端框架樣式布局

2011-09-30 14:15:10

Sencha ToucSencha Touc

2022-04-02 10:19:14

物聯網人工智能物聯網安全

2019-09-02 22:03:37

戴爾

2021-11-19 23:15:38

大數據零售交通

2016-08-03 15:35:14

云計算云計算發展趨勢

2016-07-20 13:08:59

云計算

2012-06-25 10:53:32

Google IO大會

2018-09-30 11:42:45

5G 高通移動

2016-09-29 08:45:12

vueAPIWeb

2010-08-02 13:30:34

移動開發移動開發平臺

2013-08-15 11:01:22

2015-09-15 10:03:43

流量無限運營商

2011-07-21 08:53:42

HTML 5

2024-04-10 11:47:41

人工智能ChatGPT

2011-08-10 09:54:10

JRubyJava 7

2010-05-19 15:09:43

2015-07-29 17:02:27

大數據隱私
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产免费黄网 | 无码日韩精品一区二区免费 | 一区二区三区四区电影视频在线观看 | 古装三级在线播放 | 一级免费看 | 99日韩| 欧美综合一区二区 | 成人精品国产免费网站 | 亚洲精品免费在线观看 | 国产精品久久一区 | 自拍偷拍第一页 | 亚洲免费视频在线观看 | 中国大陆高清aⅴ毛片 | 日本亚洲欧美 | 中文在线视频观看 | 国产成人精品a视频一区www | 91视频大全 | 正在播放国产精品 | 亚洲国产精品日韩av不卡在线 | 久久美女网 | 日韩精品一区二区三区中文在线 | 99re在线视频观看 | 99免费视频 | 荷兰欧美一级毛片 | 九九激情视频 | 久久免费精品视频 | 韩日一区二区三区 | 偷拍自拍网 | 一区二区免费在线观看 | 91在线一区| 国产精品一区久久久久 | 秋霞av国产精品一区 | 少妇精品久久久久久久久久 | 日本精品久久久一区二区三区 | 日韩不卡一区二区三区 | 久草成人 | 99亚洲精品| 我爱操| 一区二区视频免费观看 | 精品国产乱码久久久久久牛牛 | 日韩精品成人 |