複雜場景下非合作目標魯棒識別方法研究

《複雜場景下非合作目標魯棒識別方法研究》是依託中國科學技術大學,由莊連生擔任項目負責人的面上項目。

基本介紹

  • 中文名:複雜場景下非合作目標魯棒識別方法研究
  • 項目類別:面上項目
  • 項目負責人:莊連生
  • 依託單位:中國科學技術大學
中文摘要,結題摘要,

中文摘要

以壓縮感知理論為基礎、以人臉為研究對象,本課題主要針對複雜場景下非合作目標魯棒識別的理論和方法開展研究,解決圖像序列的多任務學習識別、保持圖像線性子空間結構的光照歸一化、姿態和表情聯合建模這三個關鍵科學問題,建立基於GPU架構的魯棒物體識別演示驗證系統,旨在把稀疏表示魯棒物體識別技術從可控或半可控場景拓展到非可控場景,期望建立較完善的以壓縮感知理論為基礎、面向非合作目標、適合複雜場景的魯棒物體識別相關理論和方法,在物體識別領域產生較大的國際影響。 本課題研究的主要貢獻包括:(1)提出基於多任務學習的結構稀疏表示聯合識別框架;(2)提出基於字典共享的稀疏光照遷移方法,以及高效的稀疏光照字典學習算法;(3)提出基於貝葉斯網路的人臉分塊表示模型和分塊圖像對齊算法;(4)建立基於GPU架構的魯棒物體識別驗證平台,為新理論和新方法的性能驗證提供平台。

結題摘要

物體識別是計算機視覺領域的一個經典問題,在安防監控、人機互動等領域具有重要套用。藉助於先進的壓縮感知理論和深度學習技術,以人臉識別為具體對象,本課題主要研究複雜場景下非合作目標魯棒識別問題的理論和方法,重點解決光照、姿態、表情等主要因素對目標識別算法性能的影響,研究內容覆蓋識別框架、關鍵算法、演示系統三個層面,涉及識別框架、光照歸一化、姿態和表情歸一化、目標跟蹤等方面,並開發出一個魯棒的物體識別演示驗證系統。具體地,課題組在如下幾個方面做出了貢獻:(1)在魯棒物體識別框架方面,課題組對稀疏表示人臉識別框架進行了關鍵性拓展,使之可以適應單樣本人臉識別問題,提高了對姿態和表情變化的魯棒;(2)在姿態和表情歸一化方面,課題組提出一種基於生成式對抗網路的人臉圖像生成方法,可以實現任意姿態和表情下人臉圖像的高精度合成,從而實現姿態和表情的歸一化;(3)在目標跟蹤方面,課題組先後提出了結構化稀疏表示魯棒跟蹤算法、多任務相關粒子濾波跟蹤算法、分層約束的分塊跟蹤算法等,極大地提高了複雜環境下目標跟蹤算法的精度和魯棒性;(4)在圖構建方面,課題組提出利用數據的稀疏和低秩特性來捕獲高維數據點在低維流形空間中的全局結構和局部結構信息,從而更好的描述數據之間的流形分布。課題組的相關研究成果主要通過高水平學術論文和專利的形式發表出來。截止填表日,課題組已經在IJCV、TPAMI、TIP、CVPR、ACM MM等國內外期刊和學術會議上發表學術論文20篇(含12篇 CCF A類論文, 6篇未標註),申請國家發明專利4項(1項已經授權),培養相關方向的研究生10人(7個博士生,3個碩士生,含在讀學生)。課題組相信本課題組的研究成果對物體識別領域具有重要學術價值,期待未來可以進一步完善相關技術,實現產業化。

相關詞條

熱門詞條

聯絡我們