基於多攝像頭協同的運動對象檢測跟蹤和異常行為分析

《基於多攝像頭協同的運動對象檢測跟蹤和異常行為分析》是依託北京大學,由田永鴻擔任負責人的重點項目。

基本介紹

  • 中文名:基於多攝像頭協同的運動對象檢測跟蹤和異常行為分析
  • 項目負責人:田永鴻
  • 項目類別:重點項目
  • 依託單位:北京大學
項目摘要,結題摘要,

項目摘要

視頻監控系統已經成為敏感場所安全防範、安全隱患發現和應急管理的重要基礎設施。然而,花費巨額資金建立的視頻監控網路並未發揮應有效果,瓶頸在於缺乏有效的自動分析識別技術來高效處理大量的實時視頻數據。本項目以大規模多攝像機監控視頻為對象,突破多視場景建模、多視環境下的對象檢測和協同跟蹤、異常行為檢測與識別等關鍵技術,提出多視角監控視頻中運動對象關聯分析模型與方法和適合異常行為模式挖掘的機器學習方法,建立一套先進的多攝像機協同的運動對象檢測、跟蹤與異常行為分析理論和技術體系。本項目還將通過開發套用測試驗證系統、參加TRECVID監控視頻事件檢測國際比賽和下一代監控視頻編碼國際標準與國家標準來驗證所提理論、方法與技術的有效性,為新一代智慧型視頻監控系統提供核心技術。

結題摘要

本項目圍繞多攝像頭協同的運動對象檢測跟蹤和異常行為分析這一科學問題,從模型方法、關鍵技術、套用驗證三個層面開展研究工作。主要技術創新如下: (1)跨攝像頭對象檢測跟蹤理論與方法:針對多攝像頭協同的對象檢測跟蹤問題,提出一整套運動對象關聯分析模型、對象表示方法、跨攝像頭對象檢測與跟蹤技術,包括多視貝葉斯網路模型MvBN、基於混合範式正則化的多義性視覺表示方法、基於遷移學習的對象檢測與跟蹤方法、基於MvBN和高度自適應映射的多視對象檢測方法、基於表觀和步態的行人再標識方法等,獲IEEE多攝像機對象檢測與跟蹤評測PETS2012中多項性能指標的第一,並被評為近五年PETS評測中性能最好的算法。 (2)基於學習的監控視頻行為與異常事件檢測方法:從學習方法著手,提出了一系列監控視頻行為分析和異常檢測方法,包括基於深度軌跡描述子的動作表示方法、面向群體行為描述的軌跡圖包方法、面向近似視頻對齊的多粒度子序列匹配方法、融合運動和表觀信息的多人群組行為識別方法、基於序列判別學習的預定義監控事件檢測方法、基於模糊聚類多自編碼器的無監督異常發現方法、基於社會屬性力的群體行為異常檢測方法等,在TRECVID監控視頻事件檢測比賽中連續2011~2012兩年均在多項檢測任務上性能最優。 (3)監控視頻前背景分析技術及其在標準中的貢獻。針對前背景建模與分析問題,提出了多項高性能的分析方法,包括像素級選擇式特徵背景建模方法、基於投影模型的自適應運動陰影檢測方法、基於大規模統計先驗和多任務排序學習的視覺顯著計算方法、基於互補顯著先驗的前景對象分割方法、簇敏感多核學習方法GS-MKL,獲2013年ImageCLEF Robot Vision競賽冠軍。將場景分析嵌入編碼框架,提出了基於背景建模的監控視頻編碼及最佳化技術,實現了壓縮效率翻番,已作為IEEE國際標準頒布。 項目構建了目前國內外最大規模的監控視頻對象檢測與跟蹤數據集PKU-SVD-B,實現了多攝像頭協同對象檢測與追蹤原型系統,開發了城市交通異常事件檢測平台並在青島30多處套用。 課題組出版專著1部,待出版1部;發表學術論文73篇,其中國際期刊27篇、CVPR/ICCV等頂級會議4篇;申請發明專利25項,其中2項已授權,獲軟體著作權5項;培養博士後4人,博士生8人,碩士生22人。因此,項目圓滿完成任務,各項指標均已大幅超過了任務書的規定。

相關詞條

熱門詞條

聯絡我們