鄒月嫻

鄒月嫻

鄒月嫻於1985年和1990年分別獲得電子科技大學工學學士和碩士學位,2000年獲香港大學博士學位,2005年從新加坡歸國加入北京大學深圳研究生院。現為IEEE高級會員,北京大學教授(tenure track)、博士生導師,北京大學深圳研究生院現代信號與數據處理實驗室(ADSPLAB)主任(2006-)、深圳物聯網智慧型感知技術工程實驗室(ELIP)副主任(2012-),入選深圳市高層次專業人才(地方級人才),為廣東省、深圳市科技專家委專家。

基本介紹

  • 中文名:鄒月嫻
  • 畢業院校:香港大學
  • 學位/學歷:博士
  • 專業方向:基於深度網路、稀疏表示理論的模式識別理論和套用等
  • 職務:深圳物聯網智慧型感知技術工程實驗室(ELIP)副主任等
  • 職稱:教授
人物履歷,研究方向,科研項目,主要成果,

人物履歷

鄒月嫻博士長期從事信號與數據處理的教學和科研工作,在智慧型信號與信息處理、人機語音互動、視頻圖像處理、模式識別和機器學習相關領域有深厚研究積累。先後主持國家級項目多項,包括NSFC項目2項和863計畫項目2項;主持地方級項目10多項,其他項目10多項,形成了一系列創新成果,其中多項研究成果受到工業界關注,正在積極進行成果轉化。先後在國內外頂級期刊和國際旗艦學術會議上發表學術論文125多篇(其中80多篇SCI/EI收錄),參與撰寫英文專著1本,授權發明專利5項。曾先後作為訪問科學家訪學於香港大學,新加坡南洋理工大學以及澳大利亞臥龍崗大學等,擔任NSFC、廣東省NSFC等項目評審專家、擔任國際會議NEMS2009, DSP2016組委會主席(Co-chair),多個國際學術會議技術委員會委員和分會主席、多個國內外著名學術期刊和國際會議審稿人。近5年,為北京大學深圳研究生院計算機套用技術專業研究生開設專業課程“模式識別導論“和“機器學習及其套用”(2010-2016)。

研究方向

鄒月嫻教授團隊目前的主要研究方向:1)基於深度網路、稀疏表示理論的模式識別理論和套用;2)智慧型聽覺感知技術理論與方法;3)數據挖掘理論與套用。

科研項目

1、深圳市技術創新計畫項目:“遠程非接觸話者身份確認系統開發”(2014-2016,進行中)
2、公司委託項目:“車型識別關鍵技術研究-基於局部特徵和稀疏表示的車型識別”(2014-2015)
3、國家自然科學基金項目:“基於聲學矢量感測器陣列和稀疏表示的語音聲源方位角估計方法研究”(61271309)
4、深圳市基礎研究項目:“面向腸道疾病預防的無線膠囊內窺鏡圖像數據的智慧型分析與處理關鍵技術研究”(2013-2015,結題中)
5、大學委託項目:“基於機器學習的分類最佳化軟體開發”(2015,結題)
6、公司委託項目:“基於Deep Learning算法的特徵識別”(2014,結題)
7、深圳市基礎研究計畫:“基於壓縮感知的多聲源高精度定位方法研究”(2012-2014,結題)
8、深圳市產學研項目:“基於雲技術的區域電子健康檔案智慧型服務系統”(2012-2013,結題)
9、大學委託項目:“三維及多視角圖像和視頻的壓縮和處理技術”(2011-2013,結題)
10、公司委託項目:“無線膠囊內窺鏡計算機輔助設計自動檢測關鍵技術研發”(2011-2013,完成)
11、公司委託項目:“嘈雜語音環境中的目標語音降噪錄音設備”(2009-2011,結題)
12、深圳市科技項目, “基於高精度多通道數字採集的體感誘發電位記錄儀,”(2010,結題)
13、研究所委託項目:“木材鑽蛀性害蟲聲學特徵研究”,(2009-2010,結題)
14、外協合作項目(課題負責人,2008):無線自動水錶抄表系統設計
15、深圳市科技計畫項目:“交叉路口交通事件,”(2007-2008,結題)
16、863計畫資助項目(課題負責人,2007):基於多源信息融合的交通事件自動檢測技術(2007AA11Z200)
17、國家自然科學基金項目(課題負責人,2007):時間交替模數轉換器(TIADC)通道失配誤差數字補償技術研究(60775003)
18、粵港創新科技項目(子課題負責人,2007):基於微機電系統(MEMS)的微慣性測量組合(uIMU)的救生套用系統開發(Development of MEMS-based uIMU for Life-Saving Applications)(GHP/029/06)
19、深圳市南山區科技計畫項目:“基於麥克風陣列的實時自適應波束形成語音增強系統研究”(2006-2007,結題)
20、863計畫資助項目(課題副組長,2006):面向HRI的機器人視聽覺注意機制及運動規劃技術”(機器人聽覺信息處理子課題2006AA04Z2477)
21、深圳市科技計畫資助項目(課題負責人,2006):基於麥克風陣列的魯棒語音定位和聲源分離技術研究

主要成果

[1]Yanhan Jin, Yuexian Zou, “ROBUST SPEAKER DOA ESTIMATION WITH SINGLE AVS IN BISPECTRUM DOMAIN”, The 42th IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Shanghai, China, March 20-25, 2016 .(國際會議,國家自然科學基金No: 61271309).
[2]Yi Wang, Yuexian Zou, Jin Chen, Xiaoling Huang, Cheng Cai, “Example-based Visual Object Counting with A Sparsity Constraint”, IEEE International Conference on Multimedia & Expo (ICME), , SEATTLE, USA,July 11-15, 2016.
[3]Xiaoling Huang, Yuexian Zou, Yi Wang, “Cost-Sensitive Sparse Linear Regression For Crowd Counting With Imbalanced Training Data”, IEEE International Conference on Multimedia & Expo (ICME), SEATTLE, USA, July 11-15, 2016.
[4]Yuexian Zou, Lei Li, Yi Wang, Yu, J.S., Li, Y., Deng, W.J.,“Classifying Digestive Organs in Wireless Capsule Endoscopy Images Based on Deep Convolutional Neural Network”, the 20th IEEE International Conference on Digital Signal Processing (DSP),Singapore, July 21-24, 2015.(國際會議,深圳科學與技術基礎研究項目No:JCYJ20130329175141512)【EI收錄20160501876925】.
[5]Yuexian Zou, Bo Li, Christian H Ritz, “Multi-Source DOA Estimation Using an Acoustic Vector Sensor Array under a Spatial Sparse Representation Framework”,Circuits, Systems & Signal Processing, pp. 1-28 ,volume 34, June 20, 2015,(SCI國際期刊,國家自然科學基金No: 61271309和深圳科學與技術基礎研究項目No: JCY201110006)【SCI收錄 000370819100014】【EI收錄 20160801981561】.
[6]Yuexian Zou, Peng Wang, Yongqing Wang, Ritz,C.H., Xi, J.T., “Speech Enhancement with an Acoustic Vector Sensor: An Effective Adaptive Beamforming and Post Filtering Approach,” EURASIP Journal on Audio, Speech, and Music Processing, 2014:17. (SCI 國際期刊,國家自然科學基金No: 61271309和深圳科學與技術基礎研究項目No: JCY201110006)【SCI收錄 000347390400001】【EI收錄 20142417806603】.
[7]Yuexian Zou, Yifan Guo, Zheng, W., Christian Ritz, and Xi, J., “An Effective DOA Estimation by Exploring the Spatial Sparse Representation of the Inter-Sensor Data Ratio Model”, The 2nd IEEE China Summit and International Conference on Signal and Information Processing(ChinaSIP2014), Xi’an, China,9-13 July 2014.(國際會議,國家自然科學基金No: 61271309和深圳科學與技術基礎研究項目No: JC201105170727A)【EI收錄20152100870017】.
[8]Yuexian Zou, Weiqiao Zheng, Wei Shi, and Hong Liu, “Improved Voice Activity Detection Based on Support Vector Machine with High Separable Speech Feature Vectors”, The 19th International Conference on Digital Signal Processing (DSP2014), Hong Kong,20-23 August 2014.(國際會議,國家自然科學基金No: 61271309和深圳科學與技術基礎研究項目No: JCY201110006)【EI收錄20153601243014】.
[9]Yuexian Zou, Yongqing Wang, Peng Wang, Christian Ritz, and Jiangtao Xi, “An Effective Target Speech Enhancement with Single Acoustic Vector Sensor Based on the Speech Time-Frequency Sparsity”, The 19th International Conference on Digital Signal Processing (DSP2014), Hong Kong, 20-23 August 2014.(國際會議,國家自然科學基金No: 61271309和深圳科學與技術基礎研究項目No: JCY201110006).
[10]Yuexian Zou, Wei Shi, Bo Li, C.H. Ritz, M.Shujau, and Jiangtao Xi, “Multisource DOA Estimation Based On Time-Frequency Sparsity And Joint Inter-Sensor Data Ratio With Single Acoustic Vector Sensor” IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Vancouver, Canada, May 26-31, 2013.(國際會議)【EI收錄20135217120852】.
[11]Yuexian Zou, and Yanshan Yu, “An Efficient Adaptive LMS Virtual Microphone Method for Remote Active Noise Control,” in The 42nd International Congress and Exposition on Noise Control Engineering(Internoise2013), Innsbruck, Austria, September 15-18,2013.(國際會議)【EI收錄20143017981672】.
[12]鄒月嫻,霍佳森,劉吉 李奕,鄧文軍,“基於特徵融合的WCE圖像檢索,”《計算機科學》,Vol.40,No.11A,11月,2013.(國內期刊,中文核心期刊).
[13]Yuexian Zou and Xiangjun Xu, “Blind Timing Skew Estimation Using Source Spectrum Sparsity in Time-Interleaved ADCs,” IEEE Transactions on Instrumentation and Measurement, Vol. 61, No. 6, p1-12, May 3, 2012.(SCI國際期刊)【EI:收錄20123515374125】【SCI收錄:000307790100009】
[14]Yuexian Zou and Wei Shi, “A Novel Instantaneous Frequency-Based Voice Activity Detection for Strong Noisy Speech,” the IEEE International Conference on Information and Automation (ICIA2012), Shengyang, June 6-8, 2012.(國際會議)【EI收錄: 20123915478477】

相關詞條

熱門詞條

聯絡我們