TensorFlow 2.0卷積神經網路實戰

TensorFlow 2.0卷積神經網路實戰

《TensorFlow 2.0卷積神經網路實戰》是清華大學出版社於2020年1月1日出版的一本圖書,作者是王曉華。

基本介紹

  • 書名:TensorFlow 2.0卷積神經網路實戰
  • 作者:王曉華
  • 出版社:清華大學出版社
  • 出版時間:2020年1月1日
  • 定價:69 元
  • ISBN:9787302540656
圖書內容,圖書目錄,

圖書內容

卷積神經網路是現代神經網路的核心內容,TensorFlow又是現在最為流行的深度學習框架。本書使用TensorFlow 2.0作為卷積神經網路實現的基本工具,引導深度學習初學者,從搭建環境開始,逐步深入到理論、代碼和套用實踐中去。本書分為8章,第1章從搭建環境開始,包含Anaconda、Python、PyCharm、TensorFlow CPU 版本和GPU版本的安裝;第2章是Keras+ TensorFlow 2.0的使用基礎;第3章是TensorFlow 2.0語法;第4章是MNIST實戰;第5章是Dataset API;第6章是ResNet理論和實踐;第7章是注意力模型;第8章是通過卷積實現的一個項目案例:識文斷字。本書內容詳盡、示例豐富,是機器學習和深度學習初學者必備的參考書,同時非常適合高等院校人工智慧相關專業的師生閱讀,也可作為培訓學校相關專業的教材使用。

圖書目錄

第1章Python和TensorFlow2.0的安裝 1
1.1Python基本安裝和用法 1
1.1.1Anaconda的下載與安裝 2
1.1.2Python編譯器PyCharm的安裝 5
1.1.3使用Python計算softmax函式 8
1.2TensorFlow2.0GPU版本的安裝 9
1.2.1檢測Anaconda中的TensorFlow版本 9
1.2.2TensorFlow2.0GPU版本基礎顯示卡推薦和前置軟體安裝 10
1.3HelloTensorFlow 13
1.4本章小結 14
第2章簡化代碼的複雜性:TensorFlow2.0基礎與進階 15
2.1配角轉成主角——從TensorFlowEagerExecution轉正談起 16
2.1.1Eager簡介與調用 16
2.1.2讀取數據 18
2.1.3使用TensorFlow2.0模式進行線性回歸的一個簡單的例子 20
2.2HelloTensorFlow&Keras 22
2.2.1MODEL!MODEL!MODEL!還是MODEL 23
2.2.2使用KerasAPI實現鳶尾花分類的例子(順序模式) 24
2.2.3使用Keras函式式編程實現鳶尾花分類的例子(重點) 27
2.2.4使用保存的Keras模式對模型進行復用 30
2.2.5使用TensorFlow2.0標準化編譯對Iris模型進行擬合 31
2.2.6多輸入單一輸出TensorFlow2.0編譯方法(選學) 35
2.2.7多輸入多輸出TensorFlow2.0編譯方法(選學) 39
2.3全連線層詳解 41
2.3.1全連線層的定義與實現 41
2.3.2使用TensorFlow2.0自帶的API實現全連線層 43
2.3.3列印顯示TensorFlow2.0設計的Model結構和參數 46
2.4本章小結 48
第3章TensorFlow2.0語法基礎 49
3.1BP神經網路簡介 49
3.2BP神經網路兩個基礎算法詳解 53
3.2.1最小二乘法(LS算法)詳解 53
3.2.2道士下山的故事——梯度下降算法 56
3.3反饋神經網路反向傳播算法介紹 59
3.3.1深度學習基礎 59
3.3.2鏈式求導法則 61
3.3.3反饋神經網路原理與公式推導 62
3.3.4反饋神經網路原理的激活函式 68
3.3.5反饋神經網路原理的Python實現 70
3.4本章小結 74
第4章卷積層詳解與MNIST實戰 75
4.1卷積運算基本概念 75
4.1.1卷積運算 76
4.1.2TensorFlow2.0中卷積函式實現詳解 78
4.1.3池化運算 80
4.1.4softmax激活函式 81
4.1.5卷積神經網路原理 83
4.2TensorFlow2.0編程實戰—MNIST手寫體識別 86
4.2.1MNIST數據集 86
4.2.2MNIST數據集特徵和標籤介紹 88
4.2.3TensorFlow2.0編程實戰MNIST數據集 90
4.2.4使用自定義的卷積層實現MNIST識別 95
4.3本章小結 98
第5章TensorFlow2.0Dataset使用詳解 99
5.1DatasetAPI基本結構和內容 99
5.1.1DatasetAPI數據種類 100
5.1.2DatasetAPI基礎使用 101
5.2DatasetAPI高級用法 102
5.2.1DatasetAPI數據轉換方法 104
5.2.2一個讀取圖片數據集的例子 108
5.3使用TFRecordAPI創建和使用數據集 108
5.3.1TFRecord詳解 109
5.3.2TFRecord的創建 111
5.3.3TFRecord的讀取 115
5.4TFRecord實戰——帶有處理模型的完整例子 121
5.4.1創建數據集 121
5.4.2創建解析函式 122
5.4.3創建數據模型 123
5.4本章小結 124
第6章從冠軍開始:ResNet 125
6.1ResNet基礎原理與程式設計基礎 125
6.1.1ResNet誕生的背景 126
6.1.2模組工具的TensorFlow實現——不要重複造輪子 129
6.1.3TensorFlow高級模組layers用法簡介 129
6.2ResNet實戰CIFAR-100數據集分類 137
6.2.1CIFAR-100數據集簡介 137
6.2.2ResNet殘差模組的實現 140
6.2.3ResNet網路的實現 142
6.2.4使用ResNet對CIFAR-100進行分類 145
6.3ResNet的兄弟——ResNeXt 147
6.3.1ResNeXt誕生的背景 147
6.3.2ResNeXt殘差模組的實現 149
6.3.3ResNeXt網路的實現 150
6.3.4ResNeXt和ResNet的比較 151
6.4其他的卷積神經模型簡介 152
6.4.1SqueezeNet模型簡介 153
6.4.2Xception模型簡介 155
6.5本章小結 156
第7章Attentionisallweneed! 157
7.1簡單的理解注意力機制 158
7.1.1何為“注意力” 158
7.1.2“hardorsoft?”—注意力機制的兩種常見形式 159
7.1.3“SpatialandChannel!”—注意力機制的兩種實現形式 160
7.2SENet和CBAM注意力機制的經典模型 163
7.2.1最後的冠軍—SENet 163
7.2.2結合了Spatial和Channel的CBAM模型 166
7.2.3注意力的前沿研究—基於細粒度的圖像注意力機制 171
7.3本章小結 173
第8章卷積神經網路實戰:識文斷字我也可以 174
8.1文本數據處理 175
8.1.1數據集介紹和數據清洗 175
8.1.2停用詞的使用 177
8.1.3詞向量訓練模型word2vec使用介紹 180
8.1.4文本主題的提取—基於TF-IDF(選學) 183
8.1.5文本主題的提取—基於TextRank(選學) 187
8.2針對文本的卷積神經網路模型簡介—字元卷積 190
8.2.1字元(非單詞)文本的處理 191
8.2.2卷積神經網路文本分類模型的實現—Conv1D(一維卷積) 199
8.3針對文本的卷積神經網路模型簡介—詞卷積 201
8.3.1單詞的文本處理 201
8.3.2卷積神經網路文本分類模型的實現—Conv2D(二維卷積) 203
8.4使用卷積對文本分類的補充內容 207
8.4.1漢字的文本處理 207
8.4.2其他的一些細節 210
8.5本章小結 211

相關詞條

熱門詞條

聯絡我們