寫給新手的深度學習——用Python學習神經網路和反向傳播

寫給新手的深度學習——用Python學習神經網路和反向傳播

《寫給新手的深度學習——用Python學習神經網路和反向傳播》是2021年中國水利水電出版社出版的圖書。

基本介紹

  • 中文名:寫給新手的深度學習——用Python學習神經網路和反向傳播
  • 作者:我妻幸長
  • 出版社:中國水利水電出版社
  • 出版時間:2021年
  • ISBN:9787517090618 
內容簡介,作者簡介,圖書目錄,

內容簡介

《寫給新手的深度學習——用Python學習神經網路和反向傳播》一書以Python為基礎,不藉助TensorFlow、PyTorch等任何框架,以淺顯易懂的語言,結合大量圖示,對機器學習、深度學習、AI相關技術中的通用技能進行了解說。主要內容包括深度學習的概念,Python基礎,深度學習必備數學知識,神經網路的結構及編程實現,反向傳播算法原理,小型深度神經網路的構建,卷積神經網路CNN的原理及編程實現,最後一章對循環神經網路RNN、自然語言處理、強化學習等內容進行了簡要介紹。通過本書,讀者可以從根本上理解深度學習技術的本質和相關算法原理,能夠構建簡單的深度學習模型,特別適合作為零基礎讀者學習深度學習技術的入門書,也適合作為高校人工智慧相關專業的教材和參考書。

作者簡介

我妻幸長,以“人類與人工智慧的共生”為己任的SAI-Lab 股份有限公司的代表理事。 從事AI 相關的教育和研究開發。 從東北大學大學院理學研究科結業。理學博士( 物理學)。興趣的對象是人工智慧(AI)、複雜系統、腦科學、奇點等。 作為編程 AI 講師,他線上指導了近3.5 萬人。 在世界**的教育視頻平台Udemy 開設了“AI 完美大師講座”、“腦科學與人工智慧”、“大家的AI 講座”等課程。 作為工程師,他開發了VR、遊戲、SNS 等各種各樣的套用軟體。

圖書目錄

第1章 何謂深度學習
1.1 什麼是智慧型
1.2 人工智慧(AI)
1.3 機器學習
1.4 神經網路
1.5 深度學習概要
1.6 人工智慧、深度學習的歷史
第2章 Python 概要
2.1 為何要使用 Python
2.2 Anaconda、Jupyter Notebook 的導入
2.3 Python 的語法
2.3.1 變數與類型
2.3.2 運算符
2.3.3 列表
2.3.4 元組
2.3.5 字典
2.3.6 if 語句
2.3.7 for 語句
2.3.8 while 語句
2.3.9 閉包語法
2.3.10 函式
2.3.11 變數的作用域
2.3.12 類
2.4 NumPy
2.5 Matplotlib
第3章 深度學習中必備的數學知識
3.1 關於數學符號
3.1.1 求和符號西格瑪(∑)
3.1.2 自然常數 e
3.1.3 自然對數 log
3.2 線性代數
3.2.1 標量
3.2.2 向量
3.2.3 矩陣
3.2.4 張量
3.2.5 標量與矩陣的乘積
3.2.6 元素項的乘積
3.2.7 矩陣乘法
3.2.8 矩陣的轉置
3.3 微分
3.3.1 常微分
3.3.2 微分公式
3.3.3 連鎖律
3.3.4 偏微分
3.3.5 全微分
3.3.6 多變數的連鎖律
3.4 常態分配
第4章 神經網路
4.1 神經細胞網路
4.2 神經細胞的模型化
4.3 神經元的網路化
4.4 回歸與分類
4.4.1 回歸
4.4.2 分類
4.5 激勵函式
4.5.1 階躍函式
4.5.2 sigmoid 函式
4.5.3 tanh
4.5.4 ReLU
4.5.5 Leaky ReLU
4.5.6 恆等函式
4.5.7 SoftMax 函式
4.6 神經網路的編程實現
4.6.1 單一神經元的編程實現
4.6.2 權重與偏差的影響
4.6.3 多個神經元的編程實現
4.6.4 各個神經層的實現
4.6.5 神經網路(回歸)
4.6.6 神經網路的表現能力
4.6.7 神經網路(分類)
第5章 反向傳播
5.1 學習法則
5.1.1 赫布學習法則
5.1.2 Delta 學習法則
5.2 何謂反向傳播
5.3 訓練數據與測試數據
5.4 損失函式
5.4.1 平方和誤差
5.4.2 交叉熵誤差
5.5 梯度下降法
5.5.1 梯度下降法概要
5.5.2 梯度計算方法概要
5.5.3 輸出層的梯度
5.5.4 輸出層的輸入梯度
5.5.5 中間層的梯度
5.5.6 梯度計算公式總結
5.5.7 梯度的計算方法——回歸
5.5.8 梯度的計算方法——分類
5.6  最最佳化算法 154
5.6.1 最最佳化算法概要 154
5.6.2 隨機梯度下降法(SGD) 155
5.6.3 Momentum 156
5.6.4 AdaGrad 156
5.6.5 RMSProp 157
5.6.6 Adam 157
5.7 批次尺寸 158
5.7.1 epoch 與批次 158
5.7.2 批次學習 159
5.7.3 線上學習 159
5.7.4 小批次學習 160
5.8 矩陣運算 161
5.8.1 矩陣的格式 161
5.8.2 使用矩陣進行正向傳播 161
5.8.3 使用矩陣進行反向傳播 163
5.9 反向傳播的實現——回歸 166
5.9.1 回歸示例——sin 函式的學習 166
5.9.2 輸出層的實現 167
5.9.3 中間層的實現 169
5.9.4 反向傳播的實現 169
5.9.5 完整的實現代碼 171
5.9.6 執行結果 174
5.10 反向傳播的實現——分類 175
5.10.1 分類示例——所屬區域的學習 175
5.10.2 各個層的實現 176
5.10.3 完整的實現代碼 177
5.10.4 執行結果 180
第6章 深度學習的編程實現
6.1 多層化所帶來的問題
6.1.1 局部最優解的陷阱
6.1.2 過擬合
6.1.3 梯度消失
6.1.4 學習時間過長的問題
6.2 解決問題的對策
6.2.1 超參數的最最佳化
6.2.2 正則化
6.2.3 權重與偏差的初始值
6.2.4 提前終止
6.2.5 數據擴張
6.2.6 數據的預處理
6.2.7 Dropout
6.3 鳶尾花的品種分類
6.3.1 鳶尾花數據集
6.3.2 訓練數據與測試數據
6.3.3 網路的結構
6.3.4 學習的各種相關設定
6.4 深度學習的編程實現
6.4.1 數據的獲取與預處理
6.4.2 各個網路層的實現
6.4.3 神經網路的實現
6.4.4 小批次法的實現
6.4.5 正確率的測算
6.4.6 整體的實現代碼
6.4.7 執行結果
6.4.8 過擬合的應對策略
6.4.9 AdaGrad 算法的實現
6.4.10 Dropout 的實現
6.4.11 過擬合對策的結果
6.4.12 品種的判斷
第7章 卷積神經網路(CNN)
7.1 卷積神經網路(CNN)概要
7.1.1 視覺的原理
7.1.2 CNN 的結構
7.1.3 卷積層
7.1.4 池化層
7.1.5 全連線層
7.1.6 填充
7.1.7 步長
7.1.8 CNN 的學習
7.1.9 變數一覽表
7.2 im2col 與 col2im
7.2.1 im2col 與 col2im 概要
7.2.2 im2col 的算法
7.2.3 im2col 的實現——簡單的 im2col
7.2.4 im2col 的實現——im2col 的實用化
7.2.5 col2im 的算法
7.2.6 col2im 的實現
7.3 卷積層的編程實現
7.3.1 編程實現的概要
7.3.2 正向傳播
7.3.3 反向傳播
7.4 池化層的編程實現
7.4.1 編程實現的概要
7.4.2 正向傳播
7.4.3 反向傳播
7.5 全連線層的編程實現
7.6 卷積神經網路的實踐
7.6.1 需要使用的數據集
7.6.2 構建網路
7.6.3 CNN 的實現代碼
7.6.4 執行結果
7.6.5 卷積層的可視化
7.6.6 卷積層的效果
7.7 更深層次的網路
7.7.1 構建網路
7.7.2 執行結果
第8章 深度學習的相關技術
8.1 循環神經網路(RNN)
8.1.1 RNN 概要
8.1.2 LSTM
8.1.3 GRU
8.2 自然語言處理
8.2.1 語素分析
8.2.2 單詞嵌入
8.3 生成式模型
8.3.1 GAN
8.3.2 VAE
8.4 強化學習
8.4.1 強化學習概要
8.4.2 深度強化學習
8.5 GPU 的使用
8.5.1 什麼是 GPU
8.5.2 深度學習中 GPU 的運用
8.6 深度學習的專用框架
8.7 深度學習技術的未來

相關詞條

熱門詞條

聯絡我們