《多深度融合感知的多視點視頻聯合處理與高效編碼》是依託華中科技大學,由劉瓊擔任項目負責人的面上項目。
基本介紹
- 中文名:多深度融合感知的多視點視頻聯合處理與高效編碼
- 項目類別:面上項目
- 項目負責人:劉瓊
- 依託單位:華中科技大學
中文摘要,結題摘要,
中文摘要
現實場景的三維視頻表示在軍事、航天、醫療、影視製作等領域有著廣泛的套用前景,以深度感知為核心的視覺特性驅動的三維視頻處理是當前國際研究的前沿與熱點,涉及視覺機理、圖像處理與最佳化等多個學科方向的交叉,其挑戰在於以多視點深度感知為驅動的多視點視頻聯合處理,涉及到的核心問題包括:時-空-視多深度感知一致性、雙目深度感知測度、多深度感知下的高效編碼方法等。本項目力圖揭示三維視頻在信號處理與視覺感知處理之間的協同最佳化機理,研究多視點深度協同的最佳化方法,探索時-空-視多深度場的幾何與深度感知一致性難題,實現全局最佳化的多視點深度場;構建多深度融合感知的顯著性計算模型,探索深度感知最佳化的碼率分配方法和技術,實現多深度感知的多視點視頻高效編碼,解決多深度感知驅動的三維視頻處理的關鍵問題,建立多深度感知的多視點視頻聯合處理與高效編碼平台,在理論和關鍵技術研究上取得突破,推動以多視點為核心的三維視頻的廣泛套用。
結題摘要
本項目執行期間,圍繞感知的多視點視頻處理的關鍵問題,抓住視覺媒體技術高速發展與廣泛套用、視覺信息感知多元化的契機,研究多視點視頻中立體視覺的感知機制與編碼最佳化模型。重點研究研究多視點深度協同的最佳化方法,通過提出跨視點的宏超像素單元及聯合最佳化,實現全局最佳化的多視點深度場;構建多深度融合感知的顯著性計算模型,採用聚類方法,提升深度顯著度計算中的魯棒性;進一步在多視點光場數據上研究深度感知最佳化的碼率分配方法和技術,實現多深度感知的多視點視頻高效編碼。最終取得核心理論與關鍵技術上的突破,實現原創性的科研成果,建立感知的多視點三維視頻數據高效處理平台,進一步推動三維視頻在視覺感知表示、多視聯合處理、高效感知編碼等方面的研究與發展。