首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 112 毫秒
1.
针对在弱语音信号和低输入信噪比(SNR)情况下,基于短时谱估计的语音增强算法性能下降的问题,提出了一种结合软判决信息和人耳听觉掩蔽效应的短时谱估计算法。该算法在最小均方误差准则下引入语音存在的概率,得到软判决修正的增益函数,然后利用掩蔽门限不断地调整增益函数,进而调整噪声的抑制程度,保护微弱的语音信号,减少语音谱的失真。客观测试和主观试听表明,该算法在信噪比增益以及语音的可懂度、自然度方面都优于传统的最小均方误差估计算法。  相似文献   

2.
针对传统谱估计增强算法易产生语音畸变、导致语音清晰度低的问题,提出了一种失真控制下的短时谱估计语音增强的新算法.该算法首先引入语音畸变的客观度量参数,并根据这一参数得到抑制语音畸变的约束条件,然后结合人耳听觉掩蔽特性和无语音概率参数,修正最小均方误差对数谱估计函数,最后联立约束条件和估计函数,得到增强后的语音,从而实现了在噪声抑制和语音畸变之间的折中,改善了语音增强的效果.主观试听和客观测试结果均表明,与其他谱减法相比,在相同的信噪比和去噪度条件下,新算法的语音畸变度最小且几乎察觉不到音乐噪声.  相似文献   

3.
含噪语音信号中噪声参数的一种估计方法   总被引:2,自引:1,他引:1  
为了提高含噪语音信号中噪声参数估计的实时性,利用语音信号的短时平稳性,提出了一种无需对含噪语音信号进行有声/无声检测的噪声参数估计法。仿真实验表明,该方法计算效率高、噪声参数估计的实时性,即使是噪声特性随时间缓慢变化也可得到良好的估计结果,可以方便地溶入到基于短时谱幅度估计的语音增强处理中。  相似文献   

4.
针对谱减法增强语音后残留音乐噪声明显,影响语音清晰度的问题,在分析现有的噪声谱减算法基本特性的基础上,提出一种基于噪声短时谱动态估计的语音降噪方法。通过估计噪声短时功率谱及其变化趋势,动态调整谱减法中的过减系数,有效抑制残留噪声。仿真实验表明,新的谱减算法在提高语音信噪比的同时保持较小的失真度,具有较好的增强效果。  相似文献   

5.
针对谱减法增强语音后残留"音乐噪声"明显,影响语音清晰度的问题,在分析现有的噪声谱减算法基本特性的基础上,提出一种基于噪声短时谱动态估计的语音降噪方法.通过估计噪声短时功率谱及其变化趋势,动态调整谱减法中的过减系数,有效抑制残留噪声.仿真实验表明,新的谱减算法在提高语音信噪比的同时保持较小的失真度,具有较好的增强效果.  相似文献   

6.
语音信息的采集过程中难免会有各种噪声的干扰,噪声降低了语音的可懂度及清晰度,甚至严重影响语音处理的准确性和可靠性。谱减法是语音减噪中最常用的方法,该方法基于人的感觉特性,对语音短时幅度谱进行估计,适用于受加性噪声污染的语音。本文通过统计分析谱减法的增益补偿因子和过减因子参数,研究基于谱减法的藏语语音减噪处理,并取得较为理想的实验结果。  相似文献   

7.
为了改进噪声环境下的语音增强效果,充分抑制背景噪声,有效消除残留“音乐噪声”,本文通过MATLAB仿真测试,对目前广泛使用的功率谱减法、维纳滤波器、最大似然短时谱幅度(STSA)估计以及最小均方误差STSA估计等语音增强算法进行了性能比较,在深入理解最大似然STSA估计算法的基础上,提出了一种针对实时应用的改进型短时谱幅度(MSTSA)估计器,实验结果显示本文提出的语音增强算法物理意义明确,复杂度较低,在低信噪比情况下能有效抑制背景噪声,在高信噪比时又能减小语音的畸变.同时,本文还提出了一种新的先验信噪  相似文献   

8.
为提高卷积环境下语音识别系统的鲁棒性,提出了一种基于时/频ICA(independent component analysis)的卷积噪声模型估计方法.所提算法首先使用ICA方法从含噪语音信号中提取纯净语音信号的短时功率谱,然后在MEL滤波器组域内将含噪语音的短时谱减去纯净语音的短时谱,并根据去噪后卷积噪声的短时谱估算其HMM(hidden markov model)模型.在仿真和真实环境下进行了语音识别实验,其识别正确率相比较传统的卷积噪声估计方法分别提升了4.70%和4.75%.实验结果表明,论文所提算法能够实现对卷积噪声的精确估计,并有效提升卷积噪声环境下语音识别系统的性能.  相似文献   

9.
传统的倒谱平滑维纳滤波算法在求取选择性平滑范围时,噪声会对维纳增益函数的倒谱产生影响,使估计出的选择性平滑范围不正确,进而导致此传统算法在平滑掉音乐噪声的同时也影响了噪声抑制效果。为此提出了一种基于修正倒谱平滑技术改进的维纳语音增强算法,该算法先用最大似然准则估计出纯净语音的倒谱,然后在纯净语音倒谱中求取基频和共振峰的位置,进而得到选择性平滑的范围。该方法提高了选择性倒谱平滑的准确性,进而改善了传统倒谱平滑维纳滤波语音增强算法的噪声抑制效果。最后在不同的噪声场景中对传统算法和改进算法进行了仿真对比,表明该算法能够在去除噪声的同时更好地保留语音的特征结构,较好地提高了带噪语音的质量。  相似文献   

10.
本文主要研究语音增强系统在短时频域内,以对数最小均方误差作为语音幅值估计的准则.对含噪语音进行消噪处理。首先推导了公式,并从理论上作了分析研究.在此基础上作了大量实验,与类似的最小均方误差短时谱幅值估计法(MMSE STSA)作了性能比较.实验结果表明,由MMSE LOG-STSA增强方法得到的语音输出的质量优于由MMSA STSA方法得到的质量.语音的失真度和清晰度均有显著改善,同时大大降低了语音中的“音乐噪声”.  相似文献   

11.
Introduction Speech enhancement is necessary in digital hearing aids since ambient noise may prevent speech percep-tion by hearing-impaired listeners, especially when the speech is greatly corrupted by background interference. This paper mainly deals with…  相似文献   

12.
针对在非平稳和多种噪声并存的语音增强算法抑制噪声能力有限的问题,提出基于最小跟踪噪声功率谱估计的相干滤波与广义旁瓣抵消的麦克风小阵语音增强算法。该方法先利用最小跟踪噪声功率谱估计的相干滤波抑制弱相关噪声,再结合广义旁瓣抵消与端点检测抑制强相关噪声。实验结果表明,方法更加有效地抑制噪声的影响;并提高了语音的可懂度。  相似文献   

13.
 混沌掩盖通信方案是最基础、最容易实施的保密通信方法,但要求传输信息的幅值要相当小,所以传输信息易受信道噪声影响,导致还原信息的解码精度降低.本文利用基于线性稳定性准则的混沌同步方法,提出一种进行信息保密通信的混沌掩盖方案.通过对混沌系统线性项与非线性项的适当分离,构造一个特殊的混沌状态变量的非线性驱动向量函数,将要传递的信息加入其中一个分量上,提高信息掩盖的复杂度和进行破解的困难度.以Lorenz吸引子和陈氏吸引子为例进行数值模拟,应用混沌掩盖技术传输正弦信息.雅克比矩阵的配置是灵活、多选的,文分析并给出简单、最优的混沌掩盖方案.数值分析证明,即使传输的正弦信息的振幅很大,也没有对解码信息的精度产生影响,同步效果很好.  相似文献   

14.
为降低噪声对语音通信的干扰,提出了一种基于谱减的语音增强算法的改进方法。根据噪声频谱的G auss统计模型修正语音增强过程中噪声频谱的估计方法,利用帧内、帧间约束估计每一个频点的先验信噪比,提出了一种简便的估计语音在每一个频点出现的概率的方法,得出了修正的语音增强算法。在白噪声以及坦克噪声环境中分别对算法的性能进行测试。实验结果表明:在几乎不损伤语音清晰度的前提下,该算法使“音乐噪声”得到了更好的抑制,同时信噪比提高了约8 dB以上。  相似文献   

15.
研究了单话筒采集条件下基于语音短时对数谱的最小均方误差(MMSE—LSA)估计的语音增强算法,给出了其算法分析的基本流程图。由于语音是时变的,因此,假设语音频谱分布为高斯分布,在此基础上讨论了MMSE—LSA算法的先验信噪比ξh的2种估计方法——最大似然估计方法和直接判决估计方法。试验证明此方法的语音增强效果较好,尤其在较低信噪比时效果更明显。  相似文献   

16.
联合波束形成与谱减法的麦克风阵列语音增强算法   总被引:1,自引:0,他引:1  
考虑到封闭环境的散射噪声场中,传统波束形成方法及单通道谱减法对噪声抑制的局限性,提出一种将波束形成方法与谱减法相结合的麦克风阵列语音增强方法.该方法首先通过波束形成器的空间滤波作用,将波达方向不同的语音信号和噪声信号加以区别,再经过延时补偿单元的相应处理,从而达到衰减噪声的目的,然后采用谱减法对波束形成器输出端的残留噪声进行后置处理.仿真实验结果表明。在小房间混响情况下,与其他方法相比,该方法不仅运算量小。而且具有良好的噪声抑制性能.  相似文献   

17.
用于语音识别的基于频谱调整的信道自适应方法   总被引:1,自引:1,他引:0  
语音识别系统在实际应用时,其性能会因各种因素而下降,其中重要的一个因素是信道的不匹配。该文提出了一种新的信道自适应方法——频谱调整法。该方法在频域上定义一个分段线性信道归一化函数,根据最大似然准则利用梯度投影法求其最优参数后,对语音的幅度频谱进行归一化。实验表明,该方法可以利用很少的自适应数据使识别的字错误率下降10%左右。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号