深度學習及加速技術:入門與實踐

《深度學習及加速技術:入門與實踐》是2023年機械工業出版社出版的圖書。

基本介紹

  • 中文名:深度學習及加速技術:入門與實踐
  • 出版時間:2023年6月1日
  • 出版社:機械工業出版社
  • ISBN:9787111728719
內容簡介,圖書目錄,

內容簡介

本書緊密圍繞深度學習及加速技術的基礎理論與套用案例展開敘述,實現了深度學習算法設計與硬體加速技術的有機統一,是一本基礎理論與實踐案例相結合的實用圖書。其具體內容涉及人工智慧基本概念,神經網路數學基礎、神經網路基本結構與學習策略、反向傳播算法數學原理與訓練機制等神經網路基礎理論,以及一些高級主題和實踐。本書可作為從事人工智慧領域算法研究、架構設計與套用實現等工作的科研人員、工程師以及高等院校師生的參考書籍。

圖書目錄

CONTENTS
目  錄
前言
理論篇
第1章 人工智慧簡介 2
1.1 人工智慧概念 2
1.1.1 人工智慧定義 2
1.1.2 人工智慧發展歷程 3
1.2 人工智慧與深度學習 4
1.2.1 人工智慧與深度學習之間
的關係 4
1.2.2 圖靈機與丘奇-圖靈論題 5
1.3 人工智慧發展階段 6
1.3.1 人工智慧1.0——知識+
算法+算力 6
1.3.2 人工智慧2.0——數據+
算法+算力 7
1.3.3 人工智慧3.0——知識+
數據+算法+算力 7
1.3.4 人工智慧4.0——存算
一體化 8
1.4 人工智慧套用 9
1.4.1 工業零部件尺寸測量與
缺陷檢測 9
1.4.2 目標檢測與跟蹤 9
1.4.3 人臉比對與識別 10
1.4.4 三維影像重構 10
第2章 神經網路數學基礎 12
2.1 線性向量空間 12
2.2 內積 14
2.3 線性變換與矩陣表示 15
2.4 梯度 17
第3章 神經網路與學習規則 20
3.1 神經元模型與網路結構 20
3.1.1 神經元模型 20
3.1.2 神經網路結構 22
3.2 感知機學習 24
3.2.1 感知機定義及結構 24
3.2.2 感知機學習規則 25
3.3 Hebb學習 28
3.3.1 無監督Hebb學習 28
3.3.2 有監督Hebb學習 29
3.4 性能學習 30
3.4.1 性能指數 30
3.4.2 梯度下降法 31
3.4.3 隨機梯度下降法 32
第4章 反向傳播 33
4.1 LMS算法 33
4.2 反向傳播算法 35
4.2.1 性能指數 36
4.2.2 鏈式法則 36
4.2.3 反向傳播計算敏感性 38
4.2.4 反向傳播算法總結 39
4.3 反向傳播算法變形 39
4.3.1 批數據訓練法 40
4.3.2 動量訓練法 40
4.3.3 標準數值最佳化技術 42
4.4 反向傳播算法實例分析 42
第5章 卷積神經網路 45
5.1 卷積神經網路基礎 45
5.1.1 全連線神經網路與卷積
神經網路 45
5.1.2 卷積神經網路組成結構 46
5.1.3 卷積神經網路進化史 50
5.2 LeNet 50
5.2.1 LeNet結構 51
5.2.2 LeNet特點 52
5.3 AlexNet 52
5.3.1 AlexNet結構 52
5.3.2 AlexNet特點 54
5.4 VGGNet 54
5.4.1 VGG16結構 55
5.4.2 VGG16特點 57
5.5 GoogLeNet 57
5.5.1 Inception結構 57
5.5.2 GoogLeNet結構——基於Inception V1模組 59
5.5.3 GoogLeNet特點 62
5.6 ResNet 62
5.6.1 ResNet殘差塊結構 63
5.6.2 ResNet結構 63
5.6.3 ResNet特點 66
第6章 目標檢測與識別 67
6.1 R-CNN 67
6.1.1 基於SS方法的候選區域
選擇 68
6.1.2 候選區域預處理 68
6.1.3 CNN特徵提取 69
6.1.4 SVM目標分類 69
6.1.5 Bounding box回歸 70
6.2 Fast R-CNN 70
6.2.1 基於SS方法的候選區域
生成 71
6.2.2 CNN分類與回歸 71
6.2.3 Fast R-CNN目標檢測
 算法特點 72
6.3 Faster R-CNN 73
6.3.1 CNN特徵提取 73
6.3.2 RPN候選框生成 74
6.3.3 CNN分類與回歸 74
6.3.4 Faster R-CNN目標檢測
算法特點 75
6.4 YOLO 75
6.4.1 YOLOv1 75
6.4.2 YOLOv2 77
6.4.3 YOLOv3 80
第7章 深度學習最佳化技術 83
7.1 梯度消失 83
7.2 過擬合 85
7.2.1 增加訓練數據集 85
7.2.2 regularization 86
7.2.3 dropout技術 88
7.3 初始值與學習速度 89
7.3.1 初始值選擇規則 89
7.3.2 可變的學習速度 91
7.4 損失函式 92
7.4.1 均方誤差損失函式 92
7.4.2 cross-entropy損失函式 93
7.4.3 log-likelyhood損失函式 95
第8章 深度學習加速技術 96
8.1 軟體模型最佳化技術 96
8.1.1 網路模型最佳化 96
8.1.2 計算精度降低 97
8.1.3 網路剪枝技術 97
8.2 GPU加速技術 98
8.3 TPU加速技術 100
8.4 FPGA加速技術 102
8.4.1 全連線神經網路加速 102
8.4.2 卷積神經網路加速 103
套用篇
第9章 基於OpenCL的FPGA異構
並行計算技術 106
9.1 OpenCL技術基礎與環境搭建 106
9.1.1 OpenCL技術基礎 106
9.1.2 OpenCL環境搭建 107
9.2 OpenCL異構並行計算架構 115
9.2.1 平台模型 116
9.2.2 執行模型 116
9.2.3 記憶體模型 117
9.3 OpenCL C語言基本語法與程式
設計 118
9.3.1 基本語法與關鍵字 118
9.3.2 數據類型 119
9.3.3 維度與工作項 122
9.3.4 其他注意事項 123
9.4 基於OpenCL的FPGA異構並行
計算實現方法 123
9.4.1 主程式設計 123
9.4.2 核心程式設計 139
第10章 基於OpenCL的FPGA異構
並行計算套用案例 140
10.1 整體描述 140
10.2 核心

相關詞條

熱門詞條

聯絡我們