《基於線上距離度量學習的自適應視覺跟蹤方法》是依託哈爾濱工業大學,由康文靜擔任項目負責人的青年科學基金項目。
基本介紹
- 中文名:基於線上距離度量學習的自適應視覺跟蹤方法
- 依託單位:哈爾濱工業大學
- 項目類別:青年科學基金項目
- 項目負責人:康文靜
項目摘要,結題摘要,
項目摘要
外觀建模和特徵匹配是影響視覺跟蹤成敗的兩個關鍵環節。現有方法通常“預先指定”且“割裂考慮”二者,導致跟蹤性能下降。距離度量學習(DML, Distance Metric Learning)理論為解決這一問題提供了契機。本項目擬對線上DML框架下的視覺跟蹤機理和方法進行系統研究,以實現快速長程持續跟蹤。具體包括:(1)研究基於特徵顯著性預判和壓縮降維的外觀建模,揭示特徵描述子對目標自身特性的刻畫能力,建立預判函式與特徵描述子之間的對應關係;(2)研究匹配度量的局部線上增量學習方法,分析局部數據空間分布和目標運動特性對度量更新的影響,推導數據驅動的高效連續解析解;(3)研究跟蹤狀態判定和閉環反饋機制,建立自適應的模板庫更新模型,有效克服跟蹤漂移。通過本項目的研究,可以為複雜動態場景下的魯棒視覺跟蹤提出切實可行的解決方案;同時,取得的成果也將充實擴展DML理論本身,為其他領域的套用提供參考。
結題摘要
在視覺跟蹤實際套用場景中,可獲取的目標先驗知識通常很少,這對於傳統的基於預定義距離度量的跟蹤算法而言是很大的挑戰。而且,預定義的度量難以適應目標和環境的變化,易導致跟蹤失敗。因此,本項目研究了具有線上學習能力的視覺跟蹤算法,構造隨跟蹤任務的推進而不斷更新的度量矩陣,提高了算法的適應性和精度。 本文首先提出了結合距離度量學習的魯棒線上視覺跟蹤算法。該算法將視覺跟蹤任務視為前、背景的二分類問題,並隨著視頻推進不斷通過資訊理論手段線上更新基於歐式距離的分類器,從而實現穩定的跟蹤。為了減少跟蹤漂移,設計了對目標變化具有適應更新能力的快速更新模板和用於降低模板污染的穩健更新模板。為了提高速度,提出基於隨機主成分分析降維的密集尺度不變特徵描述,以在儘量保證高維特徵優良屬性的前提下儘可能降低特徵維度、減小運算負擔。 基於相關濾波器的跟蹤算法定位精度高、速度快,但是它只能實現以像素為單位的低精度離散定位,易造成的跟蹤漂移。同時其尺度估計模組精度嚴重依賴於目標定位的準確性。針對這些問題,本項目提出一種基於連續相關濾波器的亞像素跟蹤算法。在目標定位模組中,算法利用卷積神經網路的高判別力特性,通過構建的卷積操作子實現對目標的連續定位,提高了算法的整體定位精度。在尺度估計模組,通過構建基於HOG特徵的多金字塔目標尺度追蹤器,實現了微小定位誤差的修正及魯棒的目標尺度估計,提升了算法整體性能。 在長程視頻中,當目標被嚴重遮擋時跟蹤器容易丟失目標,這是跟蹤的難點問題。針對這一難點,本項目提出了基於Random-Ferns和基於Mean-Shift理論的目標重追蹤方法。算法在視頻目標的穩定幀建立目標重追蹤模型,當判斷目標遮擋消失後,算法在目標消失位置使用大範圍的搜尋,當目標再度出現時以重新獲取丟失目標。 在OTB-100和VOT2015兩個權威視頻數據集上,將提出的算法與現今公認優秀的算法分別進行測試,實驗結果表明提出的算法能夠很好地應對不同場景下的跟蹤任務,具有很強的競爭力。