深度強化學習理論與實踐

《深度強化學習理論與實踐》是清華大學出版社出版的圖書。

基本介紹

  • 中文名:深度強化學習理論與實踐
  • 作者:龍強、章勝
  • 出版社:清華大學出版社
  • 出版時間:2023年3月1日
  • 定價:89 元
  • ISBN:9787302625544
內容簡介,目錄,

內容簡介

本書比較全面、系統地介紹了深度強化學習的理論和算法,並配有大量的案例和編程實現。全書核心內容可以分為3部分,第一部分為經典強化學習,包括第2、3、4章,主要內容有動態規劃法,蒙特卡洛法、時序差分法;第二部分為深度強化學習,包括第6、7、8章,主要內容有值函式近似法、策略梯度法、策略梯度法進階;第三部分重點介紹了深度強化學習的經典套用——AlphaGo系列算法。另外,作為理論和算法的輔助,第1章介紹了強化學習的模型,第5章簡單介紹了深度學習和PyTorch編程框架。 本書可以作為理工科大學相關專業研究生的學位課教材,也可以作為人工智慧、機器學習相關專業高年級本科生的選修課教材,還可以作為相關領域學術研究人員、教師和工程技術人員的參考資料。

目錄

配套資源
第1章強化學習的模型(156min)
1.1強化學習簡介
1.1.1初識強化學習
1.1.2強化學習的歷史
1.1.3強化學習與機器學習的關係
1.2強化學習的模型
1.2.1強化學習基本模型和要素
1.2.2強化學習的執行過程
1.2.3強化學習的數學模型——馬爾可夫決策過程
1.2.4環境模型案例
1.3Gym介紹
1.3.1Gym簡介
1.3.2Gym安裝
1.3.3Gym的環境描述和案例
1.3.4在Gym中添加自編環境
1.3.5直接使用自編環境
第2章動態規劃法(231min)
2.1動態規劃法簡介
2.2值函式和貝爾曼方程
2.2.1累積折扣獎勵
2.2.2值函式
2.2.3貝爾曼方程
2.3策略評估
2.4策略改進
2.5最優值函式和最優策略
2.6策略疊代和值疊代
2.7動態規劃法求解強化學習案例
第3章蒙特卡羅法(211min)
3.1蒙特卡羅法簡介
3.2蒙特卡羅策略評估
3.2.1蒙特卡羅策略評估
3.2.2增量式蒙特卡羅策略評估
3.2.3蒙特卡羅策略評估案例
3.2.4蒙特卡羅和動態規劃策略評估的對比
3.3蒙特卡羅強化學習
3.3.1蒙特卡羅策略改進
3.3.2起始探索蒙特卡羅強化學習
3.3.3ε貪婪策略蒙特卡羅強化學習
3.3.4蒙特卡羅強化學習案例
3.4異策略蒙特卡羅強化學習
3.4.1重要性採樣
3.4.2異策略蒙特卡羅策略評估
3.4.3增量式異策略蒙特卡羅策略評估
3.4.4異策略蒙特卡羅強化學習
3.4.5異策略蒙特卡羅強化學習案例
3.5蒙特卡羅樹搜尋
3.5.1MCTS的基本思想
3.5.2MCTS的算法流程
3.5.3基於MCTS的強化學習算法
3.5.4案例和代碼
第4章時序差分法(174min)
4.1時序差分策略評估
4.1.1時序差分策略評估原理
4.1.2時序差分策略評估算法
4.1.3時序差分策略評估案例
4.1.4時序差分策略評估的優勢
4.2同策略時序差分強化學習
4.2.1Sarsa算法
4.2.2Sarsa算法案例
4.3異策略時序差分強化學習
4.3.1Qlearning算法
4.3.2期望Sarsa算法
4.3.3Double Qlearning算法
4.3.4Qlearning算法案例
4.4n步時序差分強化學習
4.4.1n步時序差分策略評估
4.4.2nstep Sarsa算法
4.5TD(λ)算法
4.5.1前向TD(λ)算法
4.5.2後向TD(λ)算法
4.5.3Sarsa(λ)算法
第5章深度學習與PyTorch(275min)
5.1從感知機到神經網路
5.1.1感知機模型
5.1.2感知機和布爾運算
5.2深度神經網路
5.2.1網路拓撲
5.2.2前向傳播
5.2.3訓練模型
5.2.4誤差反向傳播
5.3激活函式、損失函式和數據預處理
5.3.1激活函式
5.3.2損失函式
5.3.3數據預處理
5.4PyTorch深度學習軟體包
5.4.1數據類型及類型的轉換
5.4.2張量的維度和重組操作
5.4.3組裝神經網路的模組
5.4.4自動梯度計算
5.4.5訓練數據自由讀取
5.4.6模型的搭建、訓練和測試
5.4.7模型的保存和重載
5.5深度學習案例
5.5.1函式近似
5.5.2數字圖片識別
第6章值函式近似算法(195min)
6.1線性值函式近似算法
6.1.1線性值函式近似時序差分算法
6.1.2特徵函式
6.1.3線性值函式近似算法案例
6.2神經網路值函式近似法
6.2.1DQN算法原理
6.2.2DQN算法
6.2.3DQN算法案例
6.3Double DQN(DDQN)算法
6.4Prioritized Replay DQN算法
6.4.1樣本優先權
6.4.2隨機優先權採樣
6.4.3樣本重要性權重參數
6.4.4Prioritized Replay DQN算法流程
6.4.5Prioritized Replay DQN算法案例
6.5Dueling DQN算法
6.5.1Dueling DQN算法原理
6.5.2Dueling DQN算法案例
第7章策略梯度算法(176min)
7.1策略梯度算法的基本原理
7.1.1初識策略梯度算法
7.1.2策略函式
7.1.3策略目標函式
7.1.4策略梯度算法的框架
7.1.5策略梯度算法的評價
7.2策略梯度定理
7.2.1離散型策略梯度定理
7.2.2連續型策略梯度定理
7.2.3近似策略梯度和評價函式
7.3蒙特卡羅策略梯度算法(REINFORCE)
7.3.1REINFORCE的基本原理
7.3.2REINFORCE的算法流程
7.3.3REINFORCE隨機梯度的嚴格推導
7.3.4帶基線函式的REINFORCE
7.3.5REINFORCE實際案例及代碼實現
7.4演員評論家策略梯度算法
7.4.1算法原理
7.4.2算法流程
7.4.3算法代碼及案例
第8章策略梯度法進階(135min)
8.1異步優勢演員: 評論家算法
8.1.1異步強化學習
8.1.2A3C算法
8.1.3A2C算法
8.1.4案例和程式
8.2深度確定性策略梯度算法
8.2.1DDPG的基本思想
8.2.2DDPG的算法原理
8.2.3DDPG的算法結構和流程
8.2.4案例和程式
8.3近端策略最佳化算法
8.3.1PPO的算法原理
8.3.2PPO的算法結構和流程
8.3.3案例和程式
8.4柔性演員評論家算法
8.4.1最大熵原理
8.4.2柔性Q學習
8.4.3SAC算法原理
8.4.4SAC算法結構和流程
8.4.5案例和程式
第9章深度強化學習案例: AlphaGo系列算法
9.1AlphaGo算法介紹
9.1.1AlphaGo中的深度神經網路
9.1.2AlphaGo中深度神經網路的訓練
9.1.3AlphaGo的MCTS
9.1.4總結
9.2AlphaGo Zero算法介紹
9.2.1AlphaGo Zero的策略價值網路
9.2.2AlphaGo Zero的MCTS
9.2.3AlphaGo Zero的算法流程
9.3AlphaZero算法介紹
9.3.1從圍棋到其他棋類需要解決的問題
9.3.2AlphaZero相對於AlphaGo Zero的改進與調整
9.3.3AlphaZero的算法流程
9.4MuZero算法介紹
9.4.1MuZero中的深度神經網路
9.4.2MuZero中的MCTS
9.4.3MuZero的算法流程
9.5AlphaGo系列算法的套用與啟示
參考文獻

相關詞條

熱門詞條

聯絡我們