計算機視覺中的深度學習

《計算機視覺中的深度學習》是2021年電子工業出版社出版的圖書,作者是姜竹青、門愛東、王海嬰。

基本介紹

  • 中文名:計算機視覺中的深度學習
  • 作者:姜竹青、門愛東、王海嬰
  • 出版社:電子工業出版社
  • 出版時間:2021年
  • 頁數:328 頁
  • 定價:98 元
  • 開本:16 開 
  • ISBN:9787121411922
內容簡介,目錄,

內容簡介

人工智慧相比於人力而言具有低成本、高效率和全天候等巨大優勢,但其發展往往不能全面滿足實際場景的旺盛需求。近年來人工智慧與計算機視覺的結合日益緊密,基於深度學習研究計算機視覺成為一個新方向。深度學習的特點是層次化的特徵提取、規模更大、數據更多、計算更複雜。本書從介紹計算機視覺的任務入手,總結從傳統手工提取特徵方法到深度學習的發展歷程。然後,針對不同層次的計算機視覺任務,結合作者團隊近年來的研究成果,以及部分學界公認的里程碑式成果,從理論層面論述深度學習在具體計算機視覺任務中的套用。本書作者來自北京郵電大學長期從事多媒體技術教學和研究的一線教師。本書適合從事圖像和視頻的處理和理解的研究人員、相關領域軟體開發人員或研究生閱讀。

目錄

第1章 計算機視覺及其任務 1
1.1 計算機視覺的定義 1
1.2 計算機視覺的發展沿革 1
1.3 計算機視覺的主要任務及其套用 2
1.3.1 圖像恢復 2
1.3.2 圖像識別 3
1.3.3 動作分析 4
1.3.4 場景重建 5
1.3.5 行人再識別 6
1.4 本章小結 7
本章參考文獻 7
第2章 手工特徵 8
2.1 初級圖像特徵 8
2.1.1 顏色特徵 8
2.1.2 紋理特徵 11
2.1.3 形狀特徵 12
2.2 中級圖像特徵 13
2.2.1 Haar-like特徵 14
2.2.2 SIFT特徵 16
2.2.3 SURF特徵 19
2.3 本章小結 21
本章參考文獻 21
第3章 神經網路基礎理論 23
3.1 神經元概述 23
3.1.1 感知器 23
3.1.2 激活函式 24
3.1.3 神經元模型 28
3.2 神經網路基礎結構 28
3.2.1 兩層神經網路模型 28
3.2.2 前饋神經網路和循環神經網路 29
3.2.3 神經網路中的參數 30
3.3 神經網路訓練 31
3.3.1 權重初始化 31
3.3.2 偏置初始化 32
3.3.3 前向傳播 32
3.3.4 損失函式 32
3.3.5 反向傳播 33
3.3.6 參數更新 35
3.3.7 批歸一化 37
3.3.8 正則化 38
3.4 常見的神經元模型 40
3.4.1 空間信息處理單元 40
3.4.2 時間信息處理單元 41
3.5 本章小結 43
本章參考文獻 44
第4章 神經網路結構 46
4.1 LENET5 46
4.2 ALEXNET 48
4.3 VGGNET 50
4.4 INCEPTION 53
4.5 RESNET 55
4.6 DENSENET 57
4.7 MOBILENET 60
4.8 FCN 63
4.9 本章小結 71
本章參考文獻 71
第5章 目標分割 73
5.1 目標分割技術概述 73
5.1.1 目標分割技術基本理論與模型 73
5.1.2 目標分割技術概述 74
5.1.3 評價標準 77
5.2 基於深度學習多路徑特徵融合的圖像語義分割 79
5.2.1 特點 79
5.2.2 基於VGGNet的多路徑特徵融合算法 80
5.2.3 基於ResNet的多路徑特徵融合算法 85
5.3 基於模糊邏輯的多特徵視頻運動目標分割 88
5.3.1 特點 88
5.3.2 算法 88
5.3.3 實驗 96
5.4 目標分割未來趨勢 98
本章參考文獻 99
第6章 目標檢測 102
6.1 目標檢測算法概述 102
6.1.1 算法概述 102
6.1.2 評價指標 104
6.2 傳統目標檢測方法 106
6.2.1 區域選擇算法 106
6.2.2 典型人工圖像特徵 106
6.2.3 分類器類型及訓練 106
6.3 基於候選區域的目標檢測方法 110
6.3.1 R-CNN的實現 110
6.3.2 SPP-net的實現 111
6.3.3 Fast R-CNN的實現 112
6.3.4 Faster R-CNN的實現 113
6.4 基於回歸的目標檢測 115
6.4.1 YOLO的實現 115
6.4.2 SSD的實現 117
6.4.3 YOLOv2的改進 119
6.5 改進算法拾萃 122
6.5.1 困難樣本挖掘 122
6.5.2 YOLOv2損失函式 123
6.5.3 基於上下文信息的SSD改進 124
6.5.4 多特徵多尺度融合 126
6.6 目標檢測未來趨勢 129
本章參考文獻 130
第7章 目標跟蹤 132
7.1 目標跟蹤技術概述 132
7.1.1 目標跟蹤算法基本理論與模型 132
7.1.2 目標跟蹤算法概述 133
7.1.3 評價標準 135
7.2 平衡正負樣本權重的多示例學習跟蹤算法 136
7.2.1 MIL跟蹤算法 136
7.2.2 平衡正負樣本權重 138
7.3 基於核化相關濾波器的視覺目標跟蹤算法研究與改進 143
7.3.1 基於相關濾波器的目標跟蹤算法 143
7.3.2 自適應模板更新的目標跟蹤算法 150
7.3.3 CNN和相關濾波結合的跟蹤算法 158
7.4 基於中心對比CNN的目標跟蹤算法研究 169
7.4.1 逐任務驅動的CNN目標跟蹤算法 169
7.4.2 中心對比CNN目標跟蹤算法 170
7.4.3 小運動優先的視覺目標跟蹤算法 175
7.5 目標跟蹤未來趨勢 180
本章參考文獻 180
第8章 行人再識別 183
8.1 行人再識別技術概述 183
8.1.1 行人再識別技術基本理論與模型 183
8.1.2 行人再識別技術簡介 184
8.1.3 評價標準 186
8.2 基於ADARANK進行特徵集成的行人再識別算法 188
8.2.1 算法特點 188
8.2.2 算法細節 188
8.2.3 實驗結果 200
8.3 基於增強深度特徵的行人再識別算法 206
8.3.1 算法特點 206
8.3.2 引入注意力機制的網路模型 207
8.3.3 引入手工特徵:LOMO特徵融合到多級注意力識別—驗證網路 215
8.4 基於屬性和身份特徵融合的行人再識別算法 221
8.4.1 特點 221
8.4.2 算法 222
8.4.3 實驗 230
8.5 行人再識別未來趨勢 236
本章參考文獻 237
第9章 圖像壓縮 242
9.1 有損壓縮和無損壓縮 242
9.1.1 無損壓縮 242
9.1.2 有損壓縮 243
9.2 經典的有損圖像壓縮方法 243
9.2.1 JPEG 243
9.2.2 JPEG 2000 243
9.2.3 BPG 244
9.3 基於深度學習的圖像壓縮技術 244
9.4 基於空間能量壓縮的圖像壓縮 244
9.4.1 算法特點 244
9.4.2 算法細節 245
9.4.3 實驗結果 249
9.5 利用卷積神經網路進行內容加權的圖像壓縮 249
9.5.1 算法特點 249
9.5.2 算法細節 250
9.5.3 實驗結果 254
9.6 基於生成式對抗網路的圖像壓縮 255
9.6.1 算法特點 255
9.6.2 算法細節 255
9.6.3 實驗結果 257
9.7 圖像壓縮未來趨勢 257
本章參考文獻 258
第10章 超解析度重建 259
10.1 超解析度技術概述 259
10.1.1 超解析度技術的基本理論與模型 259
10.1.2 超解析度技術概述 261
10.2 基於深度殘差網路注意力機制的圖像超解析度重建 263
10.2.1 存在的問題 263
10.2.2 提出的解決方案 264
10.2.3 具體實現細節 264
10.2.4 實驗結果比較分析 267
10.3 基於增強的可變形卷積網路的視頻超解析度 271
10.3.1 視頻超解析度 271
10.3.2 存在的問題 272
10.3.3 針對存在的問題提出的解決方案 272
10.3.4 具體實現 274
10.3.5 實驗對比 277
10.4 真實原始感測器數據的超解析度重建 278
10.4.1 存在的問題 278
10.4.2 針對問題提出的解決方案 279
10.4.3 具體實現細節 279
10.4.4 實驗對比 281
10.5 超解析度重建未來趨勢 283
本章參考文獻 284
第11章 圖像去噪技術 287
11.1 圖像去噪技術概述 287
11.1.1 圖像去噪基本理論與模型 287
11.1.2 圖像去噪算法 287
11.1.3 評價標準 292
11.2 去噪卷積神經網路 293
11.2.1 算法特點 293
11.2.2 存在問題 294
11.2.3 算法細節 294
11.2.4 實驗結果 295
11.3 盲去噪卷積神經網路 299
11.3.1 算法特點 299
11.3.2 存在問題 299
11.3.3 算法細節 299
11.3.4 實驗 302
11.4 真實圖像去噪神經網路 307
11.4.1 特點 307
11.4.2 存在問題 307
11.4.3 算法細節 307
11.4.4 實驗 310
11.4.5 總結 312
11.5 圖像去噪未來趨勢 312
本章參考文獻 312
附錄A 術語與縮略詞表 313

相關詞條

熱門詞條

聯絡我們