首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
基于PSOLA技术的汉语语音规则合成系统   总被引:1,自引:0,他引:1  
研究了使用基音同步叠加算法(PSOLA),来改变汉语语音的音高、音强和音长,进行汉语语音合成的方法。同时对于其中的主要参数:基音同步标志,则利用了改进的自相关算法、HILBERT变换原理和搜索算法,建立了精确自动确定标志的软件。另外提出了汉语词调的优化统计方法,得出了词调的定量描述规则。最后运用PSOLA算法原理,加上汉语全音节音库和较为完善的韵律规则库,设计了一个较为清晰、自然的汉语语音规则实时合成系统。  相似文献   

2.
针对传统的基音同步叠加方法的缺陷提出了相应的改进方法:一是将小波变换用于声门闭合时刻(GCI)的检测,获得GCI的准确位置,在此基础上,按每个基音周期起始的精确位置进行基音同步叠加,在一定的范围内,改变单音节的基频和时长去拟合连续语流中音节的超音段变化;二是用升余弦滚降窗函数代替基音同步叠加算法中的Hamming窗函数,使合成语音的质量明显提高,调节更加方便.  相似文献   

3.
小波分析法对多带激励声码器基音提取的改进   总被引:2,自引:0,他引:2  
作者介绍了小波变换用于语音信号基音周期检测的原理,提出了基于小波变换后波形特征的基音提取算法。该算法与原多带激励声码器基音提取算法相比,能有效避开噪声的干扰,正确提取语音的基音,计算复杂度也降低很多。  相似文献   

4.
针对传统的基音估计算法不能适用于过渡音的问题,提出中心偏离函数及基于中心偏离函数的基音周期检测算法。该算法主要通过划分语音子带来搜索最小中心偏移量,较准确地确定过渡音的基音周期。介绍了该算法的设计思想和实现过程,并给出代表性的实验结果,将其结果与MBE算法所检测到的基音周期进行比较。研究结果表明:采用所提出的中心偏离函数和时域削波方法相结合来搜索基音周期,能够有效地克服传统方法的不足,降低误判率,提高基音周期的估计精度。  相似文献   

5.
提出了一种将基音同步叠加技术用于汉语文语转换系统的方法。主要介绍了系统的基本组成、语音基元选择、语音库的结构和检索、文本的预处理、合成规则、基音同步叠加技术等。该系统在语言学处理中采用了分词精度较高的基于词形统计的汉语文本切分算法 ;韵律处理采用了能有效控制合成语音韵律的语音合成规则 ;声学处理采用了基音同步叠加技术进行语音合成 ,易于调整合成语音的音高、音长和音强。测试表明 ,本系统语音输出清晰度达 95 % ,自然度达 8.1分 (按 10分制 ) ,基本达到实用的要求  相似文献   

6.
一种基音周期估计的改进CAMDF算法   总被引:2,自引:0,他引:2  
本文首先介绍了传统基音周期估计算法:ACF算法和AMDF算法.为了克服AMDF算法容易导致估计出的基音周期加倍的缺陷,本文重点阐述了CAMDF基音周期估计算法,并提出了改进CAMDF算法.该法是在CAMDF算法之前,对语音信号进行降比特处理.实验表明,改进CAMDF算法在降低对处理器件复杂度和精度方面要求的同时并不会影响基音周期的估计效果.最后,本文进行了各种基音检测算法的仿真比较,实验表明改进CAMDF算法在基音估计效果上具有很好的准确性和稳定性.  相似文献   

7.
通过对基音周期慢时变特性的研究,提出了一种改进的MBE基音跟踪算法.该算法旨在减少运算量,提升基音检测的实时性,将传统的基音跟踪算法改进为前后向各跟踪一帧.仿真实验表明,改进算法与传统算法对基音跟踪均取得了良好的效果,但是新算法计算量大幅度减少,执行速度明显提升.  相似文献   

8.
基于幅度差平方和函数的基音周期提取算法   总被引:10,自引:0,他引:10  
为了在任意采样率下都可以高效、准确地进行基音周期提取,提出基于归一化幅度差平方和函数的基音周期提取算法。导出高效计算幅度差平方和函数的方法,时间复杂度是O(N lbN),给出该函数的归一化定义。归一化幅度差平方和函数的取值反映语音信号的非周期性程度,由此定义了基音周期的状态损失函数和转移损失函数,从而能在后处理过程中利用V iterb i算法,确定最优的基音周期序列。实验结果表明:与通用基音提取算法相比,在保证实时性的基础上错误率降低了9.31%,证明使用该算法提高了基音周期提取的准确率。  相似文献   

9.
一种改进的基音检测算法   总被引:4,自引:3,他引:1  
提出了一种改进的基音检测算法,通过最小化重建谐振峰与原始谐振峰之间的误差得到最佳的基音估计。在基音估计中引入误差控制因子以得到无偏的误差函数,同时对基音轨迹跟踪技术作了改进,以保证基音轨迹的正确演变。实验结果表明,与IMBE标准中的基音检测算法相比,该方法能够提供更正确且平滑的基音轨迹,尤其在过渡段能有效地跟踪快速基音变化,从而使重建语音具有更好的连续性和主观质量。  相似文献   

10.
本文介绍了一种改进的基于LPC逆滤波的AMDF基音提取算法——M-AMDF基音提取算法。该算法重点在预处理和后处理上下功夫以提高基音提取的准确率。我们的介绍分为两个部分,一是算法介绍,另一是对算法的评价。算法介绍的重点是预处理和后处理,对算法的评价采用了四个客观评价标准。  相似文献   

11.
对新的基音检测算法STA作简要介绍,对于在基音检测的实际应用中,遇到的由于受到噪声、共振峰影响造成基音周期检测点的偏移问题,提出STA的改进方案ISTA,并对前后2种方案的实际效果进行了比较,ISTA在基音检测时可以得到比STA更理想的效果.  相似文献   

12.
小波的提升方法在基音提取中的应用   总被引:2,自引:0,他引:2  
提出用第二代小波构造算法———提升算法 ,提取声音的基音 ,并以软件实现了提升算法对音乐和语音基音的提取 ,取得了准确的结果  相似文献   

13.
该文提出了一种基于修正倒谱模型的改进的倒谱基音检测算法.该算法首先对分帧语音进行10阶线性预测编码(LPC)分析和逆滤波,获得LPC预测残差;然后对残差信号进行倒谱分析,倒谱分析中采用了离散傅里叶变换频谱的高频分量置零的计算措施;最后根据倒谱的特征求得浊音语音的基音周期.仿真检测结果表明:该算法无论对纯净语音,还是对不同加噪情况下的含噪语音,其基音检测结果都明显优于传统倒谱基音检测算法,并且也明显优于基于平均幅度差函数的基音检测算法,而略优于基于自相关函数的基音检测算法.  相似文献   

14.
作为语音信号处理领域一项基本、关键的技术,基音检测在语音信号处理中扮演着重要的角色,一直是语音信号处理的一个研究热点.首先对传统的基于短时自相关函数法的基音检测进行了研究;在此基础上提出了一种能同时检测一段语音信号基音周期的方法,有效地克服了传统基音检测算法只能检测一帧语音信号基音的缺点.进行了实验仿真,结果表明通过去野点,中值平滑等后处理的基于段的基音检测算法比传统的基于帧的基音检测算法具有更好的抗噪性.  相似文献   

15.
本文设计了一个2.4kb/s的语音分析算法,并详细介绍了算法中的技术细节。对语音的分析采用LPC分析方法,以语音能量、基音周期以及10个部分相关系数作为一帧语音的参数。在分析算法中采用杜宾递推公式求取部分相关系数,采用并联时域基音检测技术提取基音周期。通过删除语音间隙及进行自动增益控制等措施来提高语音参数的精确度,对语音参数进行编码以达到2.4kb/s的传输率的要求。  相似文献   

16.
将小波变换用于声门闭合时刻(GCI)检测,获得GCI的位置,在此基础上,按每个基音起始的精确位置进行基音同步叠加在一定范围内,改变单音节的基频和时长去拟合连续语流中音节的超音段变化  相似文献   

17.
在对语音信号进行LPC分析的基础上,提出了一种有效的语音基音周期检测算法。该算法利用小波变换中著名的Mallat算法逐层分解LPC预测误差信号,在最低分辨率的逼近信号中寻找峰值,然后逐层回溯各个分辨率的逼近信号,最后在LPC预测误差中确定出峰值,从而求出相应的基音周期。  相似文献   

18.
一种改进的抗噪基音周期检测算法   总被引:1,自引:0,他引:1  
介绍了一种改进的抗噪性强的基音周期检测算法,该算法利用经典的自相关函数和平均幅度差函数,并将二者相结合.它继承了自相关函数的抗噪特性,并通过能量函数进一步加重基音峰值点,进而提高了在噪声环境下的提取准确度.与传统自相关方法相比,该算法很好地克服了基音半倍和双倍错误.实验证明:这种算法简单易行,又有很好的抗噪性能,在存在噪声的条件下,仍能比较精确地检测出基音周期.  相似文献   

19.
为了提高含噪语音信号在低信噪比情况下的基音检测准确度,以带噪语音信号为研究对象,采用小波变换对带噪语音信号进行减噪处理以提高带噪语音信号的信噪比,再利用自相关函数对减噪后的语音信号进行基音检测。利用Matlab软件对具有不同信噪比的带噪语音信号进行了基音检测改进算法仿真实验。实验结果表明,当带噪语音信号信噪比下降到0d B时,改进算法基音检测正确率略高于未进行小波减噪的基音检测算法正确率。当带噪语音信号信噪比下降到-5d B时,改进算法基音检测正确率明显高于未进行小波减噪的基音检测正确率。  相似文献   

20.
在确保语音信号基音检测算法准确度和稳健性的前提下,降低其复杂度,增强实时性.首先给出了基音周期提取过程的实现框图,而后结合流程图详细阐述了提出的新算法,最后通过对仿真实验结果的分析,表明新算法在噪声环境下,仍能精确地提取基音周期.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号