寫給新手的深度學習2:用Python實現的循環神經網路RNN和VAE,GAN

寫給新手的深度學習2:用Python實現的循環神經網路RNN和VAE,GAN

《寫給新手的深度學習2:用Python實現的循環神經網路RNN和VAE,GAN》是2022年中國水利出版社出版的圖書。

基本介紹

  • 中文名:寫給新手的深度學習2:用Python實現的循環神經網路RNN和VAE,GAN
  • 作者:(日)我妻幸長
  • 出版時間:2022年
  • 出版社:中國水利出版社
  • ISBN:9787517099116
  • 類別:人工智慧
  • 開本:32 開
  • 裝幀:平裝-膠訂
內容簡介,圖書目錄,作者簡介,

內容簡介

《寫給新手的深度學習 2——用 Python 實現的循環神經網路 RNN 和 VAE、GAN》一書以Python 為基礎,不藉助 TensorFlow、PyTorch 等任何框架,以淺顯易懂的語言對循環神經網路RNN 及生成模型中的 VAE、GAN 的構建方法進行了詳細解說。其中在前 3 章對深度學習和Python 編程及數學的相關知識進行了簡要概括,然後依次介紹了 RNN、LSTM、GRU、VAE、GAN 的工作原理及編程實現,這也是本書的主要內容,後一章作為進階準備,介紹了化算法、機器學習的一些技巧以及幾種便於開發、試錯的數據集。通過本書,讀者可以從根本上理解深度學習技術的本質和相關算法原理,能夠構建簡單的深度學習模型,特別適合作為零基礎讀者學習深度學習技術的入門書,也適合作為高校人工智慧相關專業的教材和參考書。

圖書目錄

第1章
深度學習的發展歷程
1.1深度學習概述
1.1.1人工智慧與機器學習
1.1.2深度學習
1.2深度學習的套用
1.2.I圖像識別
1.2.2圖像生成
1.2.3異常檢測
1.2.4自然語言處理
1.2.5強化學習
1.2.6其他套用案例
1.3本書所涉及的技術
1.3.1RNN
1.3.2生成模型
第2章
學習前的準備
2.1Anaconda環境的搭建
2.1.IAnaconda的下載
2.1.2Anaconda的安裝
2.1.3Jupyter Notebook
2.1.4Jupyter Notebook的使用方法
2.1.5Jupyter Notebook關
2.2Google Colaboratory的使用方法
2.2.1Google Colaboratory
2.2.2ColabNotebook的使用方法
2.2.3GPU的使用方法
2.2.4檔案的管理
2.3Python基礎
2.3.1變數與類型
2.3.2運算符
2.3.3列表
2.3.4元組
2.3.5字典
2.3.6if語句
2.3.7for語句
2.3.8函式
2.3.9變數的作用域
2.3.10類
2.4NumPy與matplotlib
2.4.1模組的導入
2.4.2NumPy數組
2.4.3生成數組的各種函式
2.4.4基於reshape的形狀變換
2.4.5數組運算
2.4.6訪問元素
2.4.7圖表的繪製
2.4.8圖像的顯示
2.5基礎的數學知識
2.5.1向量
2.5.2矩陣
2.5.3元素項的乘積
2.5.4矩陣乘法
2.5.5矩陣的轉置
2.5.6微分
2.5.7連鎖律
2.5.8偏微分
2.5.9連鎖律的擴展
2.5.10常態分配
第3章
深度學習的基礎知識
3.1深度學習概述
3.1.1什麼是深度學習
3.1.2網路的分層與層數
3.1.3梯度下降算法
3.1.4epoch與批次
3.2全連線層的正向傳播
3.2.1正向傳播的公式
3.2.2用矩陣表示正向傳播
3.2.3正向傳播的編程實現
3.3全連線層的反向傳播
3.3.1反向傳播的公式
3.3.2用矩陣表示反向傳播
3.3.3反向傳播的編程實現
3.4全連線層的編程實現
3.4.I共用類的編程實現
3.4.2中間層的編程實現
3.4.3輸出層的編程實現
3.5簡單深度學習的編程實現
3.5.1手寫數字圖像的識別
3.5.2數據的預處理
3.5.3正向傳播與反向傳播
3.5.4小批次處理的編程實現
3.6完整的代碼
第4章
RNN
4.1RNN概述
4.2RNN網路層的正向傳播
4.2.正向傳播概述
4.2.2正向傳播的公式
4.2.3正向傳播的編程實現
4.3RNN網路層的反向傳播
4.3.1反向傳播的公式
4.3.2用矩陣表示反向傳播
4.3.3反向傳播的編程實現
4.4RNN網路層的編程實現
4.5簡單RNN的編程實現
4.5.1訓練數據的生成
4.5.2數據的預處理
4.5.3訓練
4.5.4預測
4.5.5曲線的生成
4.5.6完整的代碼
4.6學習二進制加法運算
4.6.1二進制加法運算
4.6.2準備二進制數
4.6.3輸出層
4.6.4訓練
4.6.5完整的代碼
4.7RNN中存在的問題
第5章
LSTM
5.1LSTM概述
5.1.1LSTM的結構
5.1.2記憶單元
5.1.3忘記門
5.1.4輸入門與新的記憶
5.1.5輸出門
5.2LSTM網路層的正向傳播
5.2.1正向傳播公式
5.2.2正向傳播的編程實現
5.3LSTM網路層的反向傳播
5.3.I反向傳播公式
5.3.2忘記門
5.3.3輸入門
5.3.4新的記憶
5.3.5輸出門
5.3.6使用矩陣表示
5.3.7反向傳播的編程實現
5.4LSTM層的編程實現
5.5簡單LSTM的編程實現
5.5.ILSTM的訓練
5.5.2完整的代碼
5.6使用LSTM自動生成文章
5.6.1文本數據的讀取
5.6.2文字與索引的關聯
5.6.3文字的向量化
5.6.4輸出的含義
5.6.5生成文本的函式
5.6.6梯度裁剪
5.6.7完整的代碼
5.6.8確認結果
第6章
GRU
6.1GRU概述
6.1.1GRU的結構
6.1.2復位門
6.1.3新的記憶
6.1.4更新門
6.2GRU網路層的正向傳播
6.2.1GRU正向傳播的公式
6.2.2正向傳播的編程實現
6.3GRU網路層的反向傳播
6.3.1新的記憶
6.3.2更新門
6.3.3復位門
6.3.4輸入的梯度
6.3.5前一時刻輸出的梯度
6.3.6使用矩陣表示
6.3.7反向傳播的編程實現
6.4GRU網路層的封裝類
6.5GRU的編程實現
6.6使用RNN生成圖像
6.6.1作為時間序列數據的圖像
6.6.2訓練數據的準備
6.6.3圖像的生成
6.6.4完整的代碼
6.7Seq2Seq
第7章
VAE
7.1自編碼器及VAE概述
7.1.1什麼是自編碼器
7.1.2什麼是VAE
7.2VAE的工作原理
7.2.1隱藏變數的採樣
7.2.2Reparametrization Trick
7.2.3誤差的定義
7.2.4重構誤差
7.2.5正則化項
7.3自編碼器的編程實現
7.3.I構建網路
7.3.2各網路層的編程實現
7.3.3正向傳播與反向傳播的編程實現
7.3.4小批次處理的編程實現
7.3.5完整的代碼
7.3.6顯示生成的圖像
7.4VAE中必備的網路層
7.4.1VAE的結構
7.4.2輸出平均值和標準偏差的網路層
7.4.3採樣層
7.4.4輸出層
7.5VAE的編程實現
7.5.I正向傳播與反向傳播的編程實現
7.5.2完整的代碼
7.5.3隱藏空間的可視化
7.5.4圖像的生成
7.6VAE的派生技術
7.6.1Conditional VAE
7.6.2ß-VAE
7.6.3Vector Quantised-VAE
7.6.4Vector Quantised-VAE-2
第8章
GAN
8.1GAN概述
8.1.I什麼是GAN
8.1.2DCGAN
8.1.3GAN的用途
8.2GAN的工作原理
8.2.1識別器的學習
8.2.2生成器的學習
8.2.3誤差的定義
8.3GAN中必備的網路層
8.3.1生成器和識別器的結構
8.3.2生成器的輸出層
8.3.3識別器的輸出層
8.4GAN的編程實現
8.4.1正向傳播與反向傳播的編程實現
8.4.2GAN的訓練
8.4.3GAN的學習
8.4.4圖像的生成
8.4.5完整的代碼
8.4.6誤差與準確率的變化
8.5GAN的衍生技術
8.5.1Conditional GAN
8.5.2pix2pix
8.5.3Cycle GAN
第9章
進階準備
9.1最最佳化算法
9.1.I最最佳化算法概述
9.1.2隨機梯度下降算法
9.1.3Momentum
9.1.4AdaGrad
9.1.5RMSProp
9.1.6Adam
9.1.7最最佳化算法的編程實現
9.2機器學習的技巧
9.2.1Dropout
9.2.2Leaky ReLU
9.2.3權重衰減
9.2.4批次歸一化
9.3數據集的介紹
93.Iscikit-learn數據集
9.3.2Keras數據集
9.4深度學習的未來
附錄
A
A.1使用簡單的RNN生成文本
A.2使用GRU生成文本
參考文獻
後記

作者簡介

我妻幸長
一家以“人與AI的共生”為使命的公司SAI-Lab(https://sai-lab.co.jp)的董事長,從事AI相關的教育和研究開發工作。
日本東北大學研究生院理學研究科畢業,理學博士(物理學),對人工智慧(AI),複雜系統,腦科學,奇點等很感興趣。
作為一名編程/人工智慧講師,迄今已線上指導了近35,000人。
在世界的教育視頻平台Udemy開設了《AI完美大師》《全民AI》《腦科學與人工智慧》等課程。
作為一名工程師,他開發了VR,遊戲和SNS等許多不同類型的應用程式。

相關詞條

熱門詞條

聯絡我們