《基於弱監督學習的圖像語義分割研究》是依託復旦大學,由張巍擔任項目負責人的面上項目。
基本介紹
- 中文名:基於弱監督學習的圖像語義分割研究
- 依託單位:復旦大學
- 項目類別:面上項目
- 項目負責人:張巍
《基於弱監督學習的圖像語義分割研究》是依託復旦大學,由張巍擔任項目負責人的面上項目。
《基於弱監督學習的圖像語義分割研究》是依託復旦大學,由張巍擔任項目負責人的面上項目。項目摘要隨著移動網際網路的迅速普及,網路用戶可以方便地上傳圖像,網際網路上圖像資源與日俱增。為有效組織、管理和檢索海量網路圖像,亟需方法實現...
《基於形狀結構線索的弱監督圖像語義分割》是依託北京大學,由甘銳擔任負責人的青年科學基金項目。項目摘要 圖像語義分割是計算機視覺、圖像處理和模式識別中一個基本和重要的研究問題。本項目研究圖像的弱監督語義分割問題,即訓練圖像只標定...
《噪聲環境下的弱監督圖像語義分割研究》是依託中國人民大學,由盧志武擔任項目負責人的面上項目。項目摘要 圖像語義分割是一個極具挑戰性的計算機視覺問題。雖然強監督圖像語義分割已經取得大量的研究成果,但是它需要利用像素語義標籤作為強...
《基於深度學習的圖像語義分割技術》是2019年12月01日海洋出版社出版的圖書,作者是田萱,王亮,孟祥光。內容簡介 圖像語義分割(Image Semantic Segmentation,ISS)是涉及計算機視覺、模式識別與人工智慧的研究熱點,基於深度學習的圖像語義...
本項目研究有望為解決圖像語義分割提供新的思路和理論依據。結題摘要 協同分割致力於從一組包含共同對象的圖像中分割出共同對象,是弱監督分割的一種有效方法。然而,傳統協同分割方法僅分割對象區域,未考慮更精細的部件區域分割。而部件...
人體圖像的語義分割問題涉及統計學習、圖像處理等多個學科領域,具有重要理論價值,同時它可以直接套用於行人身份識別、人體服飾檢索、人體動作識別等實際問題。由於人體服飾的表觀差異、姿態變化、形狀差異、背景複雜等,人體圖像的語義分割面臨...
提出了基於blocklet稀疏編碼的建築物類型識別,對歷史古建築的框架風格進行了學習,從而找出建築物最有表現力的部分。最後提出了基於機率graphlet割的弱監督圖像分割,實現了一種新的圖像的語義分割方法。 (4)圖像自動最佳化重構,首先提出了...
採用弱監督學習方式直接利用標籤弱標註信息學習語義空間;(3)圖像語義空間學習:基於矩陣分解、流行學習等技術思想提出了一系列圖像高層語義空間學習方法,並在分類、聚類等套用問題上進行了方法驗證;(4)語義空間隨時間演化的分析建模:...
其科學意義在於揭示了圖像內在信息分布的平滑性對於弱監督圖像理解的重要性,並利用這種平滑性來讓物體檢測網路和語義分割網路進行自監督學習。相關研究成果可以用於在醫學圖像分析、網際網路圖像搜尋等領域構建大規模的圖像識別系統中套用。
《基於形狀上下文的語義目標分割方法研究》是依託西安電子科技大學,由王斌擔任項目負責人的面上項目。中文摘要 圖像語義目標分割旨在建立圖像像素與物理目標之間的關聯,從而消除人對圖像的高級語義理解與計算機的低級視覺表達之間的差異,是...
所獲得的群不變稀疏特徵套用於多圖像網路模型的弱監督語義高解析度SAR圖像分割,在此基礎上研究非負編碼最佳化的集成學習高解析度SAR圖像地物分類。本項目的研究將為高解析度SAR圖像處理領域的理論與實踐進一步發展奠定一定的基礎。結題摘要 按...
圖像語義分割方法 聚類方法可以將圖像分割成大小均勻、緊湊度合適的超像素塊,為後續的處理任務提供基礎。但在實際場景的圖片中,一些物體的結構比較複雜,內部差異性較大,僅利用像素點的顏色、亮度、紋理等較低層次的內容信息不足以生成...
將場景先驗知識作為地理對象識別的一種新的信息來源,並利用同類型場景中地理對象的出現頻率和空間關係進行表達,基於條件隨機場構建集成場景先驗知識的語義分割模型,經模型參數學習和全局推理實現遙感圖像語義分割。語義分割結果直接得到地理...
對於視覺大數據的仿生自主學習模式和面向協同選取的超維價值設計的大量分類器並行訓練時對隨機弱監督方法的最佳化研究,提出了一種基於簡潔非監督式卷積網路的圖像分類系統,與傳統的深度卷積神經網路模型相比,學習過程極其簡潔,摒棄了成千上萬...
研究基於機率超圖的弱監督學習視頻事件語義分析方法,使其能更有效地能處理視頻事件信息不確定性並能更準確、更快速地分析多事件語義;針對多對象運動的多視頻事件,研究基於對象運動事件的擴展格語法的綜合視頻事件語義理解與描述方法,以...
中國圖象圖形學會視覺大數據專委員會委員 中國圖象圖形學學會高級會員 中國計算機學會高級會員 教授課程 《數字圖像處理》(本科、研究生)《人工智慧套用技術基礎》(研究生)《高等數學》(本科)代表論著 [無監督顯著目標檢測] Huajun Zhou...