《PCNN深度模型及乳腺病理圖像自動分析方法研究》是依託陝西師範大學,由陳昱蒞擔任項目負責人的青年科學基金項目。
基本介紹
- 中文名:PCNN深度模型及乳腺病理圖像自動分析方法研究
- 項目類別:青年科學基金項目
- 項目負責人:陳昱蒞
- 依託單位:陝西師範大學
項目摘要,結題摘要,
項目摘要
組織病理圖像有絲分裂細胞計數是乳腺癌病理分級的關鍵因素。人工檢測有絲分裂細胞常因工作量大出現誤診漏診,且不同病理學家之間甚至同一病理學家不同時期的診斷意見也不一致,因此迫切需要藉助計算機圖像自動分析技術對乳腺組織病理圖像進行量化分析和評估。.針對現有自動分析方法準確率較低無法滿足臨床需求的現狀,本項目將有機結合深度卷積神經網路(CNN)的深度特徵表達結構和脈衝耦合神經網路(PCNN)的同步脈衝發放與耦合機理,擬構建一種更能模仿大腦視覺信息處理的PCNN深度模型,並將之套用於乳腺癌有絲分裂細胞特徵的自動提取中。此外,還將探索基於PCNN的有絲分裂細胞核感興趣區域分割、PCNN深度模型參數訓練與自適應設定、以及感興趣區域PCNN深度學習特徵的提取等方法,以期進一步提高乳腺組織病理圖像有絲分裂細胞檢測的準確率,為病理學家的診斷提供客觀的輔助信息,為計算機輔助診斷系統的構建提供理論基礎和技術支持。
結題摘要
醫學組織病理圖像中普遍存在細胞核粘連現象,這是造成細胞核區域難以準確分割,病變細胞數量難以精準統計的主因。本項目提出了一種精準、高效檢測組織病理圖像粘連細胞核邊緣的Caps-Unet模型,該模型提出用四個不同尺度的卷積單元和一個連線單元所組成的膠囊層(Caps-Layer)替換原U-Net模型的卷積層。實驗表明,Caps-Unet模型能檢測出U-Net模型檢測不到的粘連細胞核邊緣;相比於U-Net模型,損失率下降了約5%,評價指標Dice係數提高了約2%,且收斂速度更快。 為構建擬融合深度CNN特性的深度脈衝耦合神經網路(深度PCNN)模型,需要深入研究CNN特性。本項目以LeNet-5為基礎,分別以Google街景門牌號數據集SVHN、美國手勢數據集ASL、德國交通標誌數據集GTSRB、人臉數據集MTFL和GENKI-4K為研究對象,探索適於各數據集的最優CNN模型和算法。重要結果和數據為:(1)提出KM-Net模型,利用K-Means算法替代隨機數法初始化CNN的首個卷積權值矩陣。在SVHN上僅需訓練0.95h達到93.80%正確率;在ASL上只需疊代30次可達99.55%準確率。(2)進一步融合CNN跨層特徵,提出WCF-CNN模型,SVHN上僅需訓練2.2h識別率即升至95.6%。(3) 提出基於改進LeNet-5模型和SVM分類器的微笑識別算法,在MTFL和GENKI-4K上準確率分別為87.3% 和86.3%。(4)提出先粗分類後細分類的二級改進LeNet-5的交通標誌識別算法,在GTSRB上正確率可達91.76%。 針對傳統深度CNN模型不考慮生物脈衝時間編碼特性,需大量有監督訓練數據才能保證其性能的特點,本項目提出了一種基於SPCNN時間編碼的無監督P-Spiking深度神經網路(P-SDNN)模型,其權重參數依據STDP規則更新。P-SDNN模型在脈衝深度神經網路(SDNN)基礎上引入一個SPCNN時間編碼(Tem-coding)層,用於對經過DOG處理後的圖像進行時間編碼。該層可對不同輸入圖像,自適應地生成不同數量的時間脈衝圖,而非指定相同數量,從而合理分配計算資源。實驗表明, P-SDNN模型在公認數據集Caltech101和MNIST數據集上的圖像分類性能優於無SPCNN時間編碼的SDNN模型;且相比於傳統深度模型,所需訓練數據大為減少。