Python強化學習實戰:使用OpenAI Gym,TensorFlow和Keras(2021年清華大學出版社出版的圖書)

Python強化學習實戰:使用OpenAI Gym,TensorFlow和Keras(2021年清華大學出版社出版的圖書)

本詞條是多義詞,共2個義項
更多義項 ▼ 收起列表 ▲

《Python強化學習實戰:使用OpenAI Gym,TensorFlow和Keras》是2021年清華大學出版社出版的圖書,作者是[美] 托威赫·貝索洛(Taweh Beysolow II)。

基本介紹

  • 中文名:Python強化學習實戰:使用OpenAI Gym,TensorFlow和Keras
  • 作者:[美] 托威赫·貝索洛(Taweh Beysolow II)
  • 出版時間:2021年1月
  • 出版社:清華大學出版社
  • ISBN:9787302570097
  • 定價:49.8 元
  • 裝幀:平裝
內容簡介,圖書目錄,作者簡介,

內容簡介

《Python強化學習實戰:使用OpenAI Gym、TensorFlow和Keras》帶領讀者深入強化學習算法的世界,並使用Python在不同用例中套用它們。其中涵蓋了一些重要主題,例如,策略梯度算法和Q學習算法,並使用了TensorFlow、Keras和OpenAI Gym框架。 本書介紹了強化學習(RL)算法背後的理論及用於實現它們的代碼。讀者將依次學習OpenAI Gym的各類功能,從套用標準庫,到創建自己的環境,再到掌握如何構建強化學習問題,從而能夠研究、開發和部署基於強化學習的解決方案。

圖書目錄

第1章 強化學習導論 1
1.1 強化學習的發展史 2
1.2 MDP及其與強化學習的關係 3
1.3 強化學習算法和強化學習框架 5
1.4 Q學習 8
1.5 強化學習的套用 9
1.5.1 經典控制問題 9
1.5.2 《超級馬里奧兄弟》遊戲 10
1.5.3 《毀滅戰士》遊戲 11
1.5.4 基於強化學習的做市策略 12
1.5.5 《刺蝟索尼克》遊戲 12
1.6 本章小結 13
第2章 強化學習算法 15
2.1 OpenAI Gym 15
2.2 基於策略的學習 16
2.3 策略梯度的數學解釋 17
2.4 基於梯度上升的策略最佳化 19
2.5 使用普通策略梯度法求解車桿問題 20
2.6 什麼是折扣獎勵,為什麼要使用它們 23
2.7 策略梯度的不足 28
2.8 近端策略最佳化(PPO)和Actor-Critic模型 29
2.9 實現PPO並求解《超級馬里奧兄弟》 30
2.9.1 《超級馬里奧兄弟》概述 30
2.9.2 安裝環境軟體包 31
2.9.3 資源庫中的代碼結構 32
2.9.4 模型架構 32
2.10 應對難度更大的強化學習挑戰 37
2.11 容器化強化學習實驗 39
2.12 實驗結果 41
2.13 本章小結 41
第3章 強化學習算法:Q學習及其變種 43
3.1 Q學習 43
3.2 時序差分(TD)學習 45
3.3 epsilon-greedy算法 46
3.4 利用Q學習求解冰湖問題 47
3.5 深度Q學習 50
3.6 利用深度Q學習玩《毀滅戰士》遊戲 51
3.7 訓練與性能 56
3.8 深度Q學習的局限性 57
3.9 雙Q學習和雙深度Q網路 58
3.10 本章小結 59
第4章 基於強化學習的做市策略 61
4.1 什麼是做市 61
4.2 Trading Gym 63
4.3 為什麼強化學習適用於做市 64
4.4 使用Trading Gym合成訂單簿數據 66
4.5 使用Trading Gym生成訂單簿數據 67
4.6 實驗設計 68
4.6.1 強化學習方法1:策略梯度 71
4.6.2 強化學習方法2:深度Q網路 71
4.7 結果和討論 73
4.8 本章小結 74
第5章 自定義OpenAI強化學習環境 75
5.1 《刺蝟索尼克》遊戲概述 75
5.2 下載該遊戲 76
5.3 編寫該環境的代碼 78
5.4 A3C Actor-Critic 82
5.5 本章小結 88
附錄A 原始碼 91

作者簡介

Taweh Beysolow II是一位數據科學家和作家,目前居住在美國。他擁有美國聖約翰大學的經濟學學士學位和福特漢姆大學的套用統計學理學碩士學位。在成功退出與他人共同創立的初創公司後,他現在擔任總部位於舊金山的私人股本公司Industry Capital的董事,在那裡領導加密貨幣和區塊鏈平台。

相關詞條

熱門詞條

聯絡我們