首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 127 毫秒
1.
基于倒谱距离的语音端点检测改进算法   总被引:5,自引:1,他引:5       下载免费PDF全文
在讨论传统倒谱距离语音端点检测算法不足的基础上,提出了一种改进方案,该方法首先估计短时信噪比,然后由统计方法确定短时信噪比与门限的关系,进而完成正确的语音端点判决。通过对3种典型噪声环境下信噪比从-5 dB到20 dB的带噪语音信号进行的仿真实验结果表明,所提方法能更为准确地检测到语音端点。  相似文献   

2.
针对固定门限方法在语音端点检测技术中的局限性,为了提高低信噪比下语音端点检测的鲁棒性和准确率,将自适应门限应用于分形维数的语音检测中,提出了一种新的语音端点检测算法.该算法通过对语音信号产生机制的分析,将分形维数用于语音起止点的检测中,设计了自适应门限,从而有效降低了噪声干扰对检测结果的影响,并实现了实时检测.仿真实验结果表明,在低信噪比的情况下,改进的端点检测算法比传统的短时能量检测算法可更准确有效地实现带噪语音的端点检测,而且对噪声干扰具有更好的鲁棒性.  相似文献   

3.
基于短时能零积和鉴别信息的语音端点检测   总被引:1,自引:0,他引:1  
为了提高低信噪比下语音端点检测的准确率,提出了一种新型的语音端点检测算法.该算法利用短时能零积法和鉴别信息的互补优势,一边降噪一边端点检测,而且对于被判为噪声的帧利用基于子带能量鉴别信息方法来进行二次复检,根据鉴别信息来更新噪声能量门限,从而能更准确地跟踪噪声的能量变化.实验结果表明,该方法在信噪比变化比较剧烈的情况下仍然能够准确地进行端点检测,对语音信号的后续处理起到了很好的作用.  相似文献   

4.
针对传统语音端点检测方法在噪声环境下鲁棒性较差以及对语音段检测效果不佳的问题,提出一种多特征融合的语音端点检测方法.首先,提取带噪语音信号的子带谱熵特征和基于Mel频率倒谱系数(Mel Frequency Cepstral Coefficient, MFCC)的投影特征,并将Gammatone频率倒谱系数的第一维系数GFCC0特征应用到语音端点检测任务中;然后,对3类特征进行自适应加权融合,得到适用于端点检测的融合特征;最后,采用模糊C均值聚类自适应估计门限阈值,再通过双门限法得到端点检测的结果.所提方法和已有传统方法相比,在7种噪声环境下均取得了更好的端点检测结果,提升了语音端点检测的准确率,特别是在volvo噪声环境下的端点检测准确率可以达到94.5%以上.  相似文献   

5.
小波变换方法实现语音端点检测   总被引:1,自引:0,他引:1  
介绍传统端点检测方法,对其特点进行了分析,针对主要由白噪声组成的噪声背景,采用一种基于小波变换的语音端点检测方法,并进行了NATLAB仿真。实验结果表明,这种算法根据白噪声在小波变换域各个子带的平均能量变化平缓的特点,判别语音段和噪声段,在高信噪比和低信噪比的情况下,均能正确判别语音段和噪声段。  相似文献   

6.
传统的端点检测在信噪比较高的环境下可以有效地对语音进行端点检测,但是在低信噪比环境下端点检测的正确率急剧下降。针对在低信噪比环境下语音端点检测正确率不高的问题,提出一种将调制域谱减法和对数能量子带谱熵相结合的的端点检测算法;该算法首先利用调制域谱减法去除带噪语音的噪声以提高语音信号的信噪比,然后结合对数能量和子带谱熵算法对消噪后的语音信号进行端点检测。实验仿真结果表明,该算法在低信噪比环境下能有效提高语音端点检测的正确率且具有一定的稳健性。  相似文献   

7.
传统的端点检测在信噪比较高的环境下可以有效的对语音进行端点检测,但是在低信噪比环境下端点检测的正确率急剧下降。针对在低信噪比环境下语音端点检测正确率不高的问题,提出一种将调制域谱减法和对数能量子带谱熵相结合的的端点检测算法。该算法首先利用调制域谱减法去除带噪语音的噪声以提高语音信号的信噪比,然后结合对数能量和子带谱熵算法对消噪后的语音信号进行端点检测。实验仿真结果表明,该算法在低信噪比环境下能有效提高语音端点检测的正确率且具有一定的稳健性。  相似文献   

8.
李明 《科技资讯》2011,(10):26-27
提出了一种时频结合的带噪语音端点检测方法。选取时域短时能量和频域熵构成一个新的特征,采用自适应门限进行端点检测。实验结果表明该方法在低信噪比环境下较传统方法提高了端点检测的准确率,鲁棒性较好。  相似文献   

9.
在噪声环境下,利用短时平均幅度为特征进行语音端点检测.文章在传统端点检测算法的基础上,研究了汉语音节的特点,提出采用短时平均幅度代替短时能量,并为平均幅度引入判决门限.门限值是根据语音信号背景噪声自动计算得到,从而保证了算法在噪声环境下检测的准确性.实验结果表明,与传统的基于短时能量的端点检测算法相比,改进的算法在高信噪比和低信噪比环境下都具有良好的性能.  相似文献   

10.
语音端点检测是语音识别中非常重要的部分,识别率高低很大程度上取决于端点检测的精确程度。在高信噪比(signal-noise ratio,SNR)的实验室环境下,端点检测有很好的效果;但比如像工厂和市场等低SNR环境下,传统的检测方法性能迅速降低,端点检测无法达到预期效果。针对低SNR语音的端点检测,先通过谱减法对带噪语音进行降噪,再分别求出每帧语音信号的能量与频带方差的乘积,将乘积值作为参数进行双门限端点检测的思路,提出了一种能量和频带方差结合的端点检测方法。将TIMIT数据集中语音叠加高斯随机噪声、NOISEX 92噪声库中的factory噪声和volvo噪声进行实验。结果表明,当SNR在-10 d B时,仍有较好的检测效果,显著提高了语音端点检测的效果。  相似文献   

11.
端点检测是语音信号处理的过程中非常重要的一个环节,其准确性直接影响语音信号处理的速度和结果.特别是在实际应用中因信噪比较低,使得某些高信噪比下性能好的端点检测算法准确率也比较低.为了提高在低信噪比的环境下佤语语音端点检测的准确率,本文使用了一种基于多窗谱估计谱减法和能熵比法的语音端点检测复合算法.该算法首先利用多窗谱估计谱减法去除语音的背景噪音以提高信噪比;其次再对去噪后的语音使用能熵比算法进行端点检测;最后借助Matlab工具对佤语语音进行仿真实验.仿真结果表明:对于低信噪比的环境下的佤语语音,本文使用的基于多窗谱估计谱减法和能熵比法复合算法同常规能熵比算法相比,端点检测的准确率提高了34%.  相似文献   

12.
分形理论在语音信号端点检测及增强中的应用   总被引:8,自引:1,他引:7  
为了提高现有谱相减方法处理低信噪比语音信号的效果,利用时间序列信号的短时分形维数对低信噪比语音信号的端点检测方法进行了研究,提出了一种基于端点检测的谱相减语音增强方法,给出了其原理及具体算法.仿真实验结果表明,该方法简单可靠,有效可行,当语音信号信噪比降到-5 dB时仍然有效;与已有方法相比,具有更广泛的实用性.  相似文献   

13.
本文提出了一种基于谱减法和经验模式分解的语音增强算法。在低信噪比的情况下用谱减法可以去除语音信号中的大部分背景噪声,再对已处理过的信号进行经验模式分解,对前几个IMF进行阈值处理可以进一步增强语音。实验表明:本算法去噪效果优于传统方法。  相似文献   

14.
针对传统话音端点检测方法在短波低信噪比信道下检测准确率低的问题,提出一种将深度生成对抗网络和自适应参数的子带对数能熵积相结合的话音端点检测方法。该方法首先利用深度生成对抗网络话音增强方法降低噪声对待检测信号的影响,再以自适应参数的子带对数能熵积这一新的话音特征参数为阈值,使用自适应阈值双门限检测法完成话音端点检测。仿真实验结果表明,该方法对于-5 dB信噪比的标准话音库检测的平均加权错误测度仅为13.5%,而对于实际短波侦察信号库检测的平均加权错误测度为16.7%,均优于能零熵法和多窗谱估计谱减与能熵积法。  相似文献   

15.
谱减在基于动载的路面不平度识别中的应用   总被引:3,自引:1,他引:3  
分析了路面激励和发动机振动引起的汽车垂直动载的特点,提出了采用谱减法去除用于路面不平度识别的垂直动载中周期性噪声的方法.谱减之前对染噪信号和噪声模板都作静态小波滤波,可有效消除随机噪声谱引起的"音乐噪声".对发动机怠速时和在光滑水泥路面测得的信号比较后采用了后者作为噪声模板,并使用基本谱减方法对信号进行了滤波.试验数据处理发现谱分辨率取2Hz时谱估计方差较小,相应"音乐噪声"也较少.仿真表明,在数据点数为1024个时,使用谱减去噪使信噪比由7.2 dB提高到31.5 dB.  相似文献   

16.
随着小波变换理论的不断发展,小波变换去噪法不断丰富,小波阈值去噪法以算法简单、计算量小,吸引了众多研究者。通过对小波阈值去噪法传统阈值函数的研究,发现软硬阈值函数都存在着缺点;改进的半软阈值法综合了两者的优点,改正了两者的缺陷,明显改善了语音增强效果。并提出一种基于小波阈值去噪法与谱减法结合的改进算法,在较低信噪比下进行仿真,很好地抑制背景噪声和音乐噪声,减少语音信号的失真。  相似文献   

17.
动态时间规整(dynamic time warping,DTW)是一种相对简单成熟的算法,广泛用于语音识别系统中.针对环境噪声对声纹识别系统性能的影响,用信噪比关联谱减及自适应门限端点检测进行抗噪声处理,在此基础上采用DTW算法设计了基于嵌入式ARM9平台的声纹识别实现方案,并给出了带噪环境下的声纹识别实验结果.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号