成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

這個開源項目用Pytorch實現了17種強化學習算法

新聞 深度學習 算法
強化學習在過去的十年里取得了巨大的發展,如今已然是各大領域熱捧的技術之一。今天,猿妹和大家推薦一個有關強化學習的開源項目。

強化學習在過去的十年里取得了巨大的發展,如今已然是各大領域熱捧的技術之一,今天,猿妹和大家推薦一個有關強化學習的開源項目。

這個開源項目是通過PyTorch實現了17種深度強化學習算法的教程和代碼庫,幫助大家在實踐中理解深度RL算法。

完整的17個算法實現如下:

  • Deep Q Learning (DQN) (Mnih et al. 2013)
  • DQN with Fixed Q Targets (Mnih et al. 2013)
  • Double DQN (DDQN) (Hado van Hasselt et al. 2015)
  • DDQN with Prioritised Experience Replay (Schaul et al. 2016)
  • Dueling DDQN (Wang et al. 2016)
  • REINFORCE (Williams et al. 1992)
  • Deep Deterministic Policy Gradients (DDPG) (Lillicrap et al. 2016 )
  • Twin Delayed Deep Deterministic Policy Gradients (TD3) (Fujimoto et al. 2018)
  • Soft Actor-Critic (SAC & SAC-Discrete) (Haarnoja et al. 2018)
  • Asynchronous Advantage Actor Critic (A3C) (Mnih et al. 2016)
  • Syncrhonous Advantage Actor Critic (A2C)
  • Proximal Policy Optimisation (PPO) (Schulman et al. 2017)
  • DQN with Hindsight Experience Replay (DQN-HER) (Andrychowicz et al. 2018)
  • DDPG with Hindsight Experience Replay (DDPG-HER) (Andrychowicz et al. 2018 )
  • Hierarchical-DQN (h-DQN) (Kulkarni et al. 2016)
  • Stochastic NNs for Hierarchical Reinforcement Learning (SNN-HRL) (Florensa et al. 2017)
  • Diversity Is All You Need (DIAYN) (Eyensbach et al. 2018)

 

所有實現都能夠快速解決Cart Pole(離散動作),Mountain Car Continuous(連續動作),Bit Flipping(具有動態目標的離散動作)或Fetch Reach(具有動態目標的連續動作)。創建者計劃盡快添加更多的分層RL算法。

1. Cart Pole 和 Mountain Car

下面展示了各種RL算法成功學習離散動作游戲Cart Pole 或連續動作游戲Mountain Car。使用3個隨機種子運行算法的平均結果顯示如下: 

這個開源項目用Pytorch實現了17種強化學習算法

陰影區域表示正負1標準差。使用超參數可以在 results/Cart_Pole.py 和 results/Mountain_Car.py 文件中找到。

2. Hindsight Experience Replay (HER) Experiements

下圖展示了DQN和DDPG在 Bit Flipping(14位)和 Fetch Reach 環境中的性能,這些環境描述在論文《后見之明體驗重放2018》和《多目標強化學習2018》中。這些結果復現了論文中發現的結果,并展示了Fetch HER如何讓一個agent解決它無法解決的問題。注意,在每對agents中都使用了相同的超參數,因此它們之間的唯一區別是是否使用hindsight。

这个开源项目用Pytorch实现了17种强化学习算法

3. Hierarchical Reinforcement Learning Experiments

这个开源项目用Pytorch实现了17种强化学习算法

上圖左邊的結果顯示了在 Long Corridor 環境中 DQN 和 Kulkarni 等人在 2016 年提出的 hierarchy -DQN 算法的性能。
上圖右邊的結果顯示了 Florensa 等人 2017 年提出的 DDQN 算法和用于分層強化學習的隨機神經網絡 (SNN-HRL) 的性能。

这个开源项目用Pytorch实现了17种强化学习算法

目前,該項目已經在Github上標星 962,170個Fork(Github地址:https://github.com/p-christ/Deep-Reinforcement-Learning-Algorithms-with-PyTorch)

 

責任編輯:張燕妮 來源: 開源最前線
相關推薦

2023-06-25 11:30:47

可視化

2020-11-16 08:54:05

Google 開源技術

2020-08-10 06:36:21

強化學習代碼深度學習

2023-03-23 16:30:53

PyTorchDDPG算法

2025-01-03 11:46:31

2021-04-29 14:53:14

谷歌強化學習開發

2025-06-05 06:36:17

2020-06-05 08:09:01

Python強化學習框架

2023-01-24 17:03:13

強化學習算法機器人人工智能

2025-06-20 08:40:32

2023-09-12 13:28:36

AI模型

2022-11-02 14:02:02

強化學習訓練

2025-01-09 15:57:41

2023-03-13 16:05:03

強化學習開源

2024-10-12 17:14:12

2025-05-08 09:16:00

模型強化學習訓練

2021-11-16 15:26:23

強化學習火箭人工智能

2023-05-04 15:53:34

強化學習開發

2023-03-09 08:00:00

強化學習機器學習圍棋

2024-11-29 16:33:24

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产成人综合一区二区三区 | 亚洲黄色一区二区三区 | 精品久久久久久久久久久 | 四虎在线观看 | 精品免费国产一区二区三区四区 | 91麻豆精品国产91久久久久久久久 | 亚洲一区二区高清 | 精品国产一区久久 | 亚洲va欧美va天堂v国产综合 | 91视频网址| 日本天天操 | 毛片网站在线观看 | 日韩有码一区 | 日本成人三级电影 | 国产ts一区 | 久久精品中文字幕 | 国产精品久久免费观看 | 国产精品高清在线 | 国产视频福利一区 | 中文字幕在线三区 | 日韩av成人 | 久久久久久国模大尺度人体 | 日本免费在线观看视频 | 99草免费视频 | www.99re5.com| 久久夜视频 | 欧美韩一区二区 | 亚洲视频在线看 | 成人性视频免费网站 | 欧美日韩综合一区 | 久久精品国产一区二区三区 | 亚洲精品在线视频 | 国产高清视频一区二区 | 韩日一区二区三区 | 天天躁日日躁狠狠躁白人 | 国产精品久久久久久久白浊 | 久久精品免费观看 | 亚洲一区国产 | 91影院在线观看 | 精品欧美一区免费观看α√ | 国产视频中文字幕在线观看 |