首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对加性有色噪声干扰,提出了一种单通道输入基于信号子空间的话音增强算法。算法中使用自适应的方法跟踪KLT(Karhunen—Loeve Transform)阵。运用一种近似模型来表述有色噪声的特性,并基于噪声平稳的假设,通过采用预处理技术的语音活动性检测(VAD:Voice Activity Detection)单元获取噪声样本,用于下一语音帧中噪声特性的估计和增强处理。实验表明,算法对于有色噪声干扰下的语音信号有较好的增强效果,并且性能优于改进减谱法。  相似文献   

2.
基于CASA简化模型的语音增强算法   总被引:2,自引:0,他引:2  
基于听觉现象分析(CASA)模型的基本原理,针对仅有非语音信号干扰情况下的单通道语音增强处理问题,利用人耳的频率掩蔽效应,提出了一种单通道简化CASA计算模型语音增强新算法,新算法通过提取混合语音输入中的有效语音时频成分并利用人耳的听觉掩蔽效应重构合成增强语音输出信号,通过在汽车噪声和白噪声干扰下的仿真实验结果表明,简化的CASA模型语音增强算法的输出信噪比约提高了10dB,且可以有效抑制干扰噪声的听觉影响,增强输出语音信号的可懂度。  相似文献   

3.
利用RLS算法实现了单通道的自适应噪声消除,并且根据语音信号短时平稳的性质,提出了针对语音信号噪声消除计算RLS算法遗忘因子的方法。实验证明,基于该遗忘因子的RLS算法单通道自适应滤波器能够达到较好的语音降噪效果。  相似文献   

4.
针对现有单通道语音增强算法及传统波束形成算法的局限性,提出了一种基于双元麦克风线性阵的语音增强方法. 首先利用离线设计好的优化权值对输入信号进行加权求和以实现波束形成,然后结合一种新的噪声幅度谱估计方法,采用改进的幅度谱减法进一步增强语音信号. 仿真实验表明该方法简单易行并取得了较好的语音增强效果.  相似文献   

5.
提出一种应用于单通道语音增强技术的倒谱预处理算法。倒谱预处理通过抑制语音中浊音的谐频成分,避免在非平稳噪声跟踪过程中将语音浊音信号功率谱错误估计成噪声功率谱;同时预处理还能增加语音间隙出现的概率,跟踪搜索窗内信号能量最小值时更有效地跟踪到噪声能量电平。实验结果表明应用文中提出的预处理算法后,快速有效跟踪噪声的同时能避免噪声功率谱过估,并且在客观评价指标方面得到更高的段信噪比提高量(SegSNRI:Segmengtal Signal-to-Noise Ratio Improvement)和感知语音质量评价(PESQ:Perceptual Evaluation of Speech Quality)得分改善量。  相似文献   

6.
对语音增强的方法研究开始于20世纪70年代,目前形成了4大类传统的语音增强方法,包括谐波增强法、谱减法、基于语音生成模型的算法和基于短时谱估计的算法.但语音信号本身为非平稳信号,无论时域分析或者频域分析,其本身的信号特征均不明显,同时噪声信号常常多个叠加,特征复杂、频带宽,现有语音增强效果并不理想,甚至容易引入音乐噪声.语音交流是人类的基本沟通交流方式,用途广泛,但是在语音通讯的过程中不可避免的会受到来自环境噪声、电气噪声、传输介质等干扰,干扰后将影响人的收听辨识效果或者影响其他语音信号的处理(如语音识别).因此,有必要在音频数字化后实行适当的增强措施来提高辨识度.基于此,提出一种综合了多种方法的新语音增强处理结构.该结构结合短时傅里叶变换、谱减法、噪声谱估计和机器学习技术等,实现更强的语音增强效果.通过与前馈BP网络及LSTM网络对比,实验证明了该方法的有效性.并验证使用GPU计算技术加速的可行性.  相似文献   

7.
针对在非平稳和多种噪声并存的语音增强算法抑制噪声能力有限的问题,提出基于最小跟踪噪声功率谱估计的相干滤波与广义旁瓣抵消的麦克风小阵语音增强算法。该方法先利用最小跟踪噪声功率谱估计的相干滤波抑制弱相关噪声,再结合广义旁瓣抵消与端点检测抑制强相关噪声。实验结果表明,方法更加有效地抑制噪声的影响;并提高了语音的可懂度。  相似文献   

8.
基于FDM阵列技术的双通道语音增强方法   总被引:2,自引:0,他引:2  
为了抑制小型语音通信设备中的方向性噪声干扰问题,提出一种双通道的语音增强算法.该方法基于一阶差分麦克风(first-order differential microphone, FDM)阵列,并结合单通道的谱增强技术,可以同时提取语音和噪声估计,并能够实时地修正噪声谱.与现有的双通道语音增强技术相比,该算法可以获得2~6 dB的输出信噪比增益,且计算量减少了2/3.仿真结果表明: 该方法有效地改善了算法的噪声消除性能,且更适用于实时的语音增强系统.  相似文献   

9.
含噪语音短时功率谱的最小值搜索是噪声估计的基础。为了提高非平稳噪声估计的准确性,减小噪声水平上升时的噪声估计延时,提出了一种同时使用大、小两个搜索窗进行并行搜索的方法,最小值搜索的最终结果由两个并行搜索结果和基于噪声分类的语音存在二值判决共同决定。实验结果表明:对于高度非平稳的噪声,该方法能够有效地减小噪声估计的延时问题,显著提高增强后语音的质量。  相似文献   

10.
随着互联网技术的快速发展,如何对海量网络信息进行挖掘分析,已成为热点和难点问题。推荐系统能够帮助用户在没有明确需求或者信息量巨大时解决信息过载的问题,为用户提供精准、快速的业务(如商品、项目、服务等)信息,成为近年来产业界和学术界共同的兴趣点和研究热点,但是,目前数据的种类多种多样并且应用场景广泛,在面对这种情况时,推荐系统也会遇到冷启动、稀疏矩阵等挑战。深度学习是机器学习的一个重要研究领域和分支,近年来发展迅猛。研究人员使用深度学习方法,在语音识别、图像处理、自然语言处理等领域都取得了很大的突破与成就。目前,深度学习在推荐领域也得到了许多研究人员的青睐,成为推荐领域的一个新方向。推荐方法中融合深度学习技术,可以有效解决传统推荐系统中冷启动、稀疏矩阵等问题,提高推荐系统的性能和推荐精度。文中主要对传统的推荐方法和当前深度学习技术中神经网络在推荐方法上的应用进行了归纳,其中传统推荐方法主要分为以下3类:1)基于内容推荐方法主要依据用户与项目之间的特征信息,用户之间的联系不会影响推荐结果,所以不存在冷启动和稀疏矩阵的问题,但是基于内容推荐的结果新颖程度低并且面临特征提取的问题。2)协同过滤推荐方法是目前应用最为广泛的一种方法,不需要有关用户或项目的信息,只基于用户和诸如点击、浏览和评级等项目的交互信息做出准确的推荐。虽然该方法简单有效但是会出现稀疏矩阵和冷启动的问题。3)混合推荐方法融合了前2种传统推荐方法的特点,能取得很好的推荐效果,但在处理文本、图像等多源异构辅助信息时仍面临一些挑战与困难。依据神经网络基于深度学习的推荐方法主要分为4类:基于深度神经网络(DNN)的推荐方法、基于卷积神经网络(CNN)的推荐方法、基于循环神经网络(RNN)和长短期记忆神经网络(LSTM)的推荐方法、基于图神经网络(GNN)的推荐方法、将深度学习技术融入到推荐领域,构造的模型具有以下优势:具有较强的表征能力,可以直接从内容中提取用户和项目特征;具有较强的抗噪能力,可以轻易地处理含有噪声的数据;可以对动态或者序列数据进行建模;可以更加精准地学习用户或项目特征;便于对数据进行统一处理,并且可以处理大规模数据。将深度学习技术应用到推荐领域,可以积极有效地应对传统推荐方法面临的挑战,提高推荐效果。  相似文献   

11.
联合波束形成与谱减法的麦克风阵列语音增强算法   总被引:1,自引:0,他引:1  
考虑到封闭环境的散射噪声场中,传统波束形成方法及单通道谱减法对噪声抑制的局限性,提出一种将波束形成方法与谱减法相结合的麦克风阵列语音增强方法.该方法首先通过波束形成器的空间滤波作用,将波达方向不同的语音信号和噪声信号加以区别,再经过延时补偿单元的相应处理,从而达到衰减噪声的目的,然后采用谱减法对波束形成器输出端的残留噪声进行后置处理.仿真实验结果表明。在小房间混响情况下,与其他方法相比,该方法不仅运算量小。而且具有良好的噪声抑制性能.  相似文献   

12.
单通道语音增强算法自上个世纪60年代已来有了长足的发展,但由于时频域处理的局限性,目前现有的单通道语音增强算法无法有效抑制背景噪声中的突发噪声成分。突发噪声通常表现为短时、能量强、时频域有纹理特征的噪声,在参数上无法和语音进行有效区分。但对于背景噪声中的突发噪声,其在空间上通常是具有方向性。因此,本文提出了一种联合空间和时频域的语音增强系统。即在语音采集的前端使用GSC麦克风阵列形成波束,使主瓣对准期望语音信号、旁瓣对准突发噪声从而从空间上抑制突发噪声,然后对采集到的语音信号进行时频域语音增强处理。本文选取MMSE-LSA作为时频域的处理算法,因其在保留语音的可懂度、自然度方面有突出的性能。实验表明,该系统可以有效地抑制含有突发噪声的背景噪声。  相似文献   

13.
针对现有语音增强算法在低信噪比(SNR)非平稳噪声环境下的表现并不理想这一问题,提出了一种基于深度学习的语音增强算法.首先,构建了一个深度神经网络(DNN),然后从四个不同分辨率的耳蜗中提取了多分辨率听觉倒谱系数(MRACC)作为神经网络的输入,该系数既关注了细节的高分辨率特征,又把握了全局性的低分辨率特征;其次,跟踪噪声变化构建了一个自适应掩蔽阈值(AM)作为神经网络的训练目标,该阈值能够依据噪声调节理想二值掩蔽(IBM)和理想软掩蔽(IRM)的权重;最后,将估计的自适应掩蔽阈值用于对含噪语音进行增强.实验结果表明:相较于对比算法,该算法不仅可以进一步提高语音质量和可懂度,而且能够抑制更多的噪声.  相似文献   

14.
语音端点检测(voice activity detection,VAD)是在连续语音信号中,将语音和非语言片段分离的技术。VAD在语音识别、说话人识别、语音编码等领域起着重要作用。传统VAD算法在类型已知的噪声环境下可以达到较好的性能,但在实际情况中,未知噪声的影响通常会使系统性能下降显著,在差异化噪声下的VAD是端点检测的研究难点。在总结现有语音端点检测算法基础上,提出了一种基于深度神经网络的语音端点检测方法,同时结合维特比算法,与基于贝叶斯信息准则(bayesian information criterion, BIC)的混合高斯模型(gaussian mixture model,GMM) 语音端点检测系统进行对比,在大词汇连续语音识别系统中的实验结果表明,将深度神经网络结合维特比算法,应用于语音端点检测,在复杂噪声环境下取得了更好的效果,适应性更强。  相似文献   

15.
在鲁棒主成分分析中引入非负矩阵分解学习得到非负语音字典,提出了一种非负字典训练和鲁棒主成分分析相结合的非监督单通道语音增强算法.算法采用交替方向乘子计算优化解.采用客观感知语音质量评估方法(PESQ)对增强效果进行评估.评估中采用了TIMIT标准语音和20多种噪声在不同信噪比下进行混合得到的带噪语音信号.评估结果表明:本文提出的方法优于典型的非负矩阵分解方法和鲁棒主成分方法.  相似文献   

16.
针对语音激活检测的鲁棒性问题,提出在非平稳噪声环境下使用基于复高斯混合模型的鲁棒语音激活检测算法.算法中假设纯净语音谱满足复高斯混合模型,先验信噪比利用预先训练好的复高斯混合模型计算得到.复高斯混合模型的引入一方面提高了语音激活检测的性能,另一方面避免了使用基于最小均方误差语音增强的先验信噪比估计过程.实验中使用NOISEX-92噪声库来验证系统在噪声环境下的性能.结果表明,该种算法在非平稳噪声环境下具有良好的检测性能.  相似文献   

17.
采用基于子空间的方法,对语音信号进行增强处理,该算法提供了在语音信号失真和残留噪声之间进行控制的机制。克服了以往语音增强算法中对语音信号的噪声特点的限制,可以对混有加性白噪声、有色噪声和音乐噪声的语音信号进行增强处理。  相似文献   

18.
提出一种基于非参数贝叶斯理论的语音增强算法,在稀疏表示的框架下,把字典学习、稀疏系数表示和噪声方差估计融合成一个贝叶斯后验估计的过程,并利用Spike-Slab先验加强稀疏性.首先,将带噪语音分解为干净语音、高斯噪声和残余噪声3个子信号,分别对该3种子信号采用不同的先验概率模型表达,接着采用马尔科夫链-蒙特卡洛算法计算出3个模型中每个参数对应的后验概率,最后基于稀疏表示的框架重构出干净语音.实验数据使用NOIZEUS语音库,采用PESQ和SegSNR作为质量评价指标,分别在信噪比为0,5和10dB的高斯白噪声、火车噪声和街道噪声上验证了其可行性,并与多种常用语音增强方法进行对比,发现其在低信噪比非平稳噪声情况下的增强效果更为理想.  相似文献   

19.
考虑到传统单通道语音增强算法对噪声抑制的局限性,本文采用由两个微型麦克风阵列组成的双微阵列,利用该阵列空间结构的时空域特性对含噪语音进行处理,提出了一种适用于双微阵列的语音增强算法。该增强算法是将各通道采集到的带噪语音信号先使用对数最小均方误差(Logarithmic Minimunm Mean Square Error,LogMMSE)提升其信噪比,然后利用频域宽带最小方差无畸变响应(MVDR)通过对目标声源信号的获取,保留目标声源方向的信号并抑制其他方向的信号干扰,最后通过一个改进可懂度结合改进最小控制递归平均(Improved Minimum Controlled Recursive Average Algorithm,IMCRA)噪声估计的维纳滤波器来去除噪声残留提升语音质量。仿真实验结果表明,相比传统的单通道语音增强算法,该算法具有良好的噪声抑制性能。  相似文献   

20.
骨导语音具有天然的抗环境噪声能力,然而,受骨导麦克风佩戴位置和方式的影响,骨导语音在采集过程中常混入骨导麦克风与皮肤或衣服之间的摩擦声,导致现有基于深度学习的骨导语音增强方法鲁棒性不高、适应性不强。为提高骨导语音增强的鲁棒性,提出一种融合数据预滤波和频谱展宽的骨导语音增强方法。该方法首先通过低通滤波对骨导语音数据进行预处理以去除高频噪声,然后对预滤波后的骨导语音进行时频变换,并分别基于U Net和CRNN两种深度网络进行频谱展宽,最后通过时频逆变换重构出全频带语音。仿真结果表明,与现有深度网络增强方法相比,所提方法可以取得更好的PESQ和STOI客观评价指标,主观听感具有更好的清晰度,且对不同说话人具有更好的适应性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号