《視頻時空興趣點檢測與描述的幾何代數方法》是依託深圳大學,由李岩山擔任項目負責人的青年科學基金項目。
基本介紹
- 中文名:視頻時空興趣點檢測與描述的幾何代數方法
- 項目類別:青年科學基金項目
- 項目負責人:李岩山
- 依託單位:深圳大學
項目摘要,結題摘要,
項目摘要
隨著視頻數據的急劇增加,如何對海量視頻進行智慧型分析已成為視頻信息處理領域重要的研究課題。視頻時空興趣點是一類可以用於智慧型視頻處理的重要特徵,是智慧型視頻搜尋、事件檢測、行為識別等智慧型視頻分析的基礎。由於它能從視頻中直接提取,不需進行視頻目標提取、跟蹤等存在技術難點的中間環節,具有其他特徵不可比擬的優越性,已引起國內外大量研究者的關注。但是,已有時空興趣點檢測與描述算法過多注重算法及其實現的研究,缺乏對視頻時空域相關性進行有效、系統分析的模型與方法支持,缺乏將視頻時空域上的相關性融入到算法中,影響了視頻時空興趣點的性能。本項目在我們原來的工作上,以幾何代數為工具,建立新的視頻處理與分析模型,分析和挖掘時空域相關性,研究一套新的融入了時空相關性的視頻時空興趣點的檢測與描述算法,同時為視頻處理提供新的方法和手段。
結題摘要
視頻時空興趣點(Spatio-temporal interest point, STIP)是一種視頻圖像上的局部不變特徵,已被廣泛地套用於計算機視覺、模式識別等領域。然而,現有的STIP檢測和描述算法均是由二維圖像的局部不變特徵的檢測和描述算法上擴展而來,沒有充分利用視頻圖像的表觀信息與運動信息,從而降低了STIP的抗變換能力、抗干擾能力和計算的高效性。 本項目針對現有STIP算法中存在的問題,根據研究計畫對視頻圖像的時空興趣點的幾何代數方法展開深入研究。首先,構建了視頻圖像的幾何代數空間,研究了幾何代數空間中的視頻圖像表觀和運動信息,提出了一個視頻圖像幾何代數時空域基本模型、一個基於視頻表觀與運動信息的統一模型(Unified model of appearance and motion,UMAM)、一個基於視頻表觀和運動變化信息的統一模型(Unified model of appearance and motion-variation,UMAMV)。接著,研究了上述模型下的高斯核函式,提出了一個基於幾何代數的視頻時空域尺度空間生成理論和方法。然後,在上述基礎上,提出了一個視頻圖像的UMAM-Harris 檢測算法、UMAMV-SIFT檢測和描述算法以及UMAMV-SURF檢測和描述算法。最後,本項目在交通異常視頻圖像檢測和人體行為識別中驗證了所提的多個算法的有效性與先進性,並對實驗和套用中涉及到的關鍵技術做了深入研究,包括提出一種基於模糊集理論的詞袋模型框架,提出了一個基於高維模糊幾何的圖像表示模型,提出了基於模糊幾何的SPM算法和基於模糊幾何的LLC算法,提出一種基於局部不變特徵的交通異常視頻圖像檢測方法等一系列算法。實驗結果顯示,本項目所提算法具有比現存算法更好的性能。本項目的研究不僅為視頻時空興趣點檢測和描述提供了新的方法和手段,而且給視頻處理領域和信息幾何領域帶來了理論和方法的革新。 本項目發表論文14篇,其中SCI論文9篇;申請國內發明專利25個,獲授權國內發明專利7個,申請美國專利2個,申請日本專利1個,國際PCT專利8個,獲軟體著作權2個;組織或參加國內國際學術會議10人次,合作培養博士研究生2名,碩士研究生6名。