《混疊聲場景下的語音識別-合成補償助聽器關鍵算法研究》是依託東南大學,由鄒采榮擔任項目負責人的面上項目。
基本介紹
- 中文名:混疊聲場景下的語音識別-合成補償助聽器關鍵算法研究
- 項目類別:面上項目
- 項目負責人:鄒采榮
- 依託單位:東南大學
中文摘要,結題摘要,
中文摘要
混疊場景下的語音理解是數字助聽器設計的一大難題。目標語音與干擾聲的時頻特徵和空間方位交疊性使得傳統語音增強算法無法分離干擾,增強語音。同時,補償算法也無法彌補聽障患者的複雜的生理缺陷,恢復混疊場景下患者的時頻和空間解析能力。針對以上問題,本課題率先研究針對語音識別與合成補償的數字助聽器核心算法,主要研究內容包括:(1) 面向助聽環境的聽覺場景分類與語音處理策略;(2) 仿人耳聽覺機理的混疊語音場景下的目標語音提取研究;(3) 噪聲下的連續語音識別算法研究;(4) 語音合成補償算法研究。本課題提出了模仿人耳聽覺感知選擇性注意機制分離目標語音的方法和基於語音識別、合成與補償的數字助聽策略,可以從本質上解決重度聽損患者在混疊語音場景下難以識別和理解目標語音的問題,提高聽力康復水平。同時本課題的研究成果可以推進電子耳蝸、人工聽覺、虛擬現實等領域的發展,具有重要的理論意義和廣闊的套用前景。
結題摘要
本課題研究混疊場景下面向聽力損失患者聽力矯正需要的語音識別-合成補償助聽器關鍵算法,目的在於針對目標語音和干擾聲在時頻特性和空間方位混疊的情況下,研究提高聽損患者言語理解能力的助聽器語音處理算法。主要研究內容包括:1、混疊聲場景下的語音識別-合成補償助聽器框架;2、基於人耳聽覺特性的言語理解度提高方法;3、數字助聽器個性化自適配方法;4、複雜聲場景下的數字助聽器嘯叫抑制與語音增強方法等。經過本課題的研究,課題組出版《數字助聽器信號處理關鍵技術》專著一部;發表科研論文50餘篇,其中SCI和EI檢索論文30餘篇;申請發明專利10餘項,其中授權8項;利用該項目培養博士後工作人員2名、博士研究生2名、碩士研究生6名。具體研究成果包括:1、針對混疊聲場景下的目標語音增強需要,提出了基於人耳聽覺特性的空間定位和方向性語音增強方法,仿照人耳聽覺系統,借鑑耳蝸分頻特性和聽覺掩蔽特性,利用人耳哈斯效應進行聲源定位計算,抗干擾性強,定位精度高,計算量小,適合套用於助聽器等低功耗實時器件中。2、針對聽損患者頻率解析度降低的問題,提出了非線性頻率伸縮算法,通過在全帶或子帶中對頻率分辨能力下降區域進行頻率拉伸,提高患者的頻率敏感度,可以有效提高患者的言語識別率。另外,針對老齡聽障患者高頻聽力損失嚴重的問題,提出了自適應移頻算法,充分利用患者殘餘的可聽頻帶進行頻率映射,提高患者的高頻敏感度,進而在殘留聽力的情況下獲取更多語音信息。3、針對複雜混疊聲場景,提出了嘯叫抑制與降噪算法,通過將濾波器狀態分為收斂態、過渡態與穩態,並根據不同狀態選擇不同的步長,實現快速嘯叫抑制能力。通過以上研究,課題組設計了基於語音識別與合成的數字助聽器框架,完成了評估實驗系統,研製了助聽器樣機,並參與我國自主智慧財產權的數字助聽器信號處理專用晶片研發。本課題的研究對於促進數字助聽器產業發展具有積極的意義。