深度學習必學的十個問題——理論與實踐

深度學習必學的十個問題——理論與實踐

《深度學習必學的十個問題——理論與實踐》是2021年清華大學出版社出版的圖書。

基本介紹

  • 中文名:深度學習必學的十個問題——理論與實踐
  • 作者:李軒涯,張暐
  • 出版社:清華大學出版社
  • 出版時間:2021年6月
  • 開本:16 開
  • 裝幀:平裝
  • ISBN:9787302577164
內容簡介,圖書目錄,作者簡介,

內容簡介

深度學習是目前***的技術領域。本書兼顧了數學上的理解和代碼實踐,內容主要包括基礎知識和深度學習模型。第1章 介紹深度學習的簡潔發展思路和表示學習機制; 第2章、第3章介紹神經網路的基於梯度的最佳化方法、神經網路的最佳化難點以及相應的解決方法; 第4章討論神經網路遇到的過擬合問題; 第5章分析神經網路的小組成部分——神經元; 第6章討論三種方案解決深層網路的訓練難題: 批標準化、SELU、ResNet; 第7章、第8章講述了兩種重要的神經網路模型: 卷積神經網路和循環神經網路; 第9章討論了對於神經網路的無監督學習方式; 第10章詳細討論以變分自編碼器和對抗生成網路為代表的機率生成網路。 本書適合對於深度學習感興趣的大學生、工程師閱讀參考。閱讀本書需要具備基礎的Python編程技術和基本的數學知識。

圖書目錄

第1章作為機器學習模型的神經網路
1.1表示學習
1.2感知器與神經網路
1.3使用keras
第2章神經網路的訓練
2.1基於梯度的一階最佳化
2.2基於梯度的二階最佳化
2.3普通訓練方法的局限
2.4誤差反向傳播算法的本質
2.5使用keras
第3章神經網路的最佳化難題
3.1局部極小值,鞍點和非凸最佳化
3.2隨機梯度下降的優勢
3.3梯度方向最佳化
3.4動態調整學習率
3.5使用keras
第4章神經網路的過擬合
4.1參數綁定和提前終止
4.2數據增強和噪聲添加
4.3Dropout
4.4使用keras
第5章神經網路的神經單元
5.1梯度消失和梯度爆炸
5.2隱藏單元設計原則和sigmoid的非零中心
5.3基於線性函式的改進和maxout單元
5.4使用keras
第6章神經網路的深度訓練
6.1預處理和批標準化
6.2批標準化的不同視角: 協變數偏差和協調更新
6.3自歸一化神經網路
6.4ResNet
6.5使用keras
第7章卷積神經網路
7.1局部連線和權重共享
7.2卷積操作的重要概念
7.3卷積核的參數學習
7.4基於感受野的三個卷積技巧
7.5使用keras
第8章循環神經網路
8.1理解循環結構
8.2循環結構的參數學習
8.3正交初始化和記憶容量
8.4理解LSTM
8.5使用keras
第9章無監督表示學習: 自編碼器
9.1自編碼器
9.2稀疏自編碼器
9.3收縮自編碼器
9.4使用keras
第10章機率生成模型
10.1變分自編碼器
10.2生成對抗網路
10.3使用keras
參考文獻

作者簡介

李軒涯,單位:百度公司,職務、職稱:高級工程師,性別:男,年齡:33,專業:計算機科學與技術,學歷:博士,研究成果:中國計算機學會傑出會員、常務理事,中國計算機實踐教育聯合會副理事長。現主管百度校企合作、校企聯合人才培養、校園冬粉生態圈,幫助百度技術、人才及產品品牌在高校領域的推廣與影響力傳播。

相關詞條

熱門詞條

聯絡我們