首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 46 毫秒
1.
基于听感知特征的语种识别   总被引:3,自引:0,他引:3  
为了在语种识别时充分利用人的听感知特性提高识别性能,提出了一种基于听感知模型的特征。听感知特征采用Gammatone滤波器组代替常用的三角滤波器组计算语音信号各子带能量;根据等效矩形带宽模型,确定各滤波器的中心频率与带宽;使用反置等响度曲线模拟人耳对信号不同频率成分的主观响度感受。在基本听感知特征的基础上,还提出了一、二阶差分特征和偏移差分特征用于语种识别。对比实验表明,该文所提的听感知特征性能均优于目前普遍使用的Mel频率倒谱系数(MFCC)特征及其衍生特征。  相似文献   

2.
为了更有效地提取英语句子重音,提出了一种基于听感知特征的方法。根据音素特点,改进段长的归一化方法;根据听感知特性,引入半音程和响度特征,并以归一化的音节最高值代替其平均值,系统正确率达到78.7%,漏检率为9.37%。在此基础上,还提出了基于掩蔽效应的突显度模型,系统正确率提高到83.4%,漏检率下降到5.72%。实验表明,突显度模型更符合人的听感知,其性能接近人工标注的一致率(约为86%)。系统还具有文本无关和说话人无关的优点。  相似文献   

3.
国际上对自动语种识别进行了广泛的研究,提出了各种各样的方法,美国国家标准技术研究所(NIST)多年的评测表明,基于并行音素识别(parallel phoneme recognition language modeling,PPRLM)的方法取得了很好的性能.该文提出了一种基于多种语言的音素识别方法的自动语种识别系统,系统中Multilingual音素集是使用基于数据驱动聚类获得.通过真实环境电话语音测试表明,该方法在只使用了很少的识别时间的情况下,获得了跟传统的PPRLM系统可比的识别正确率.同时经过与PPRLM系统融合后,获得了更好的性能,跟其他主流的几种语种识别方法也有可比的性能.  相似文献   

4.
为了挖掘更多语种间区分性信息进行可靠的自动语种识别,本文提出一种将自适应领域的最大似然线性回归(maximum likelihood linear regression,MLLR)矩阵作为特征的语种识别算法。该算法首先对每个语种训练Gauss混合模型(Gaussian mixture model,GMM),然后对每个语音段在所有语种的GMM上计算MLLR矩阵。将得到的多类MLLR矩阵经归一化后拼接形成超矢量作为特征输入支持向量机(support vector machine,SVM)分类器进行训练和识别。比较了均值方差和排序两种归一化方法,并将多类MLLR-SVM算法与传统GMM语种识别算法进行对比。实验表明:排序归一化算法优于传统的均值方差归一化;建立在GMM模型基础上的MLLR-SVM系统性能有9.7%的提升,并与GMM分类器有很强的互补性。  相似文献   

5.
针对科技类学术论文的跨语种反抄袭识别问题,以中英跨语种抄袭的识别为目标展开了研究,用于探讨进行跨语种抄袭识别的方法.通过挖掘中文译文的内在规律找到了一组可以表明译文风格的译文特征,并通过这些译文特征和决策树算法识别出存在抄袭嫌疑的科技论文.试验系统开放测试的准确率和召回率分别到达了88.68%和79.17%.  相似文献   

6.
训练数据和测试数据之间由于信道等差异而引起的不匹配会严重影响语种识别的性能。而在实际应用中,通常只能获得少量的和测试数据匹配的标注数据(目标域数据),以及大量的和测试数据不匹配的标注数据(源域数据)。该文利用迁移学习的方法,通过无监督迁移分量分析(unsupervised transfer component analysis,UTCA),可以合理利用上述两种数据寻找到一个低维子空间,在该空间中,源数据和目标数据之间的分布差异最小,而且数据中有利于分类的属性得以保留,从而提高系统识别性能。实验表明:相对于基线系统,该算法对30s和10s语音的识别性能分别有24.7%和8%的提高。  相似文献   

7.
《安徽科技》2009,(7):26-26
本刊讯在日前结束的2009NIST语种识别评测大赛中,科大讯飞参赛项目获得高难度混淆方言测试冠军、通用测试指标亚军的好成绩。这是科大讯飞在2006、2007、2008年连续3年获得英文语音合成国际大赛(Blizzard Challenge)冠军,2008年获得NIST说话人识别评测大赛桂冠后再次折桂,标志着中国语音技术的领先地位。  相似文献   

8.
基于Agent的多功能感知环境研究   总被引:2,自引:0,他引:2  
多功能感知是指计算机不仅可以通过键盘和鼠标,而且可以用手势,表情,语音等其它方式与人进行交互,给出了统一的感知Agent模型,提出了一个基于Agent的多感知系统结构,且建立了系统运行的网络环境,并介绍了一个基于语音识别Agent和手势识别Agnet的多感知系统。  相似文献   

9.
语音识别中信号特征的提取和选择   总被引:4,自引:0,他引:4  
本就语音识别中的各种特征参数的性能,提取算法等进行了分析和比较。根据选择特征参数的主要依据,选择LPCC和ARAC作为基本特征参数和动态特征参数,并应用于一个维吾尔语语音识别系统中,取得了很好的识别结果。  相似文献   

10.
针对广播音频语种识别中与语种识别无关的特征对识别结果产生影响的问题, 提出一种基于伽马频率倒谱系数的改进特征参数的语种识别方法. 通过提取每帧信号的能量谱包络, 去除部分与说话人相关的特征, 采用Gammatone滤波器组滤波, 经离散余弦变换后再进行倒谱提升, 得到改进的伽马频率倒谱系数特征参数. 将广播音频信号提取特征参数输入隐Markov模型中进行训练测试, 得到的语种识别结果表明, 该方法有效提升了广播音频语种识别的准确率, 优于目前使用的伽马频率倒谱系数特征及其衍生方法.  相似文献   

11.
The development of computational auditory modeling in the last 30 vears is reviewed, and its development in the com trig years is predicted .  相似文献   

12.
研究如何从听觉模型的自相关谱中恢复出原始的声音信号.从短时自相关函数中得到原始信号的傅立叶变换的幅度值,然后利用迭代算法仅从傅立叶变换的幅度值中恢复语音信号.  相似文献   

13.
一种基于听觉掩蔽效应的语音增强方法   总被引:5,自引:1,他引:5  
为提高增强语音的听觉效果 ,研究了一种基于听觉掩蔽效应的语音增强方法。推出了一个功率谱域的基于听觉掩蔽效应的不等式准则 ,并用这个准则动态地选择一个作为语音短时谱幅度估计器的非线性函数的参数值 ,通过这个参数自适应变化的非线性函数对语音谱幅度进行估计实现语音增强。在此基础上 ,设计实现了一个单声道语音增强算法。对增强语音的客观测试和非正式听音测试表明 :相对于传统的减谱法和对数短时谱幅度最小均方误差估计增强法 ,基于听觉掩蔽效应的语音增强方法能更好地抑制背景噪声  相似文献   

14.
针对现有语音增强算法噪声残留和语音失真,不能同时达到最小这一问题,提出了一种改进的信号子空间结合维纳滤波法,进行两级语音增强。第一级利用听觉掩蔽参数改进信号子空间的增益矩阵,经处理后,可以有效降低语音失真度,并初步提高信噪比。然后利用维纳滤波算法对增强后的语音信号进行加强。实验结果表明,相比传统的信号子空间算法、维纳滤波算法,可以有效地减少语音信号中的残留噪声、降低语音信号的失真度、提升语音信号的整体质量。  相似文献   

15.
基于听觉模型的子波变换语音增强林宝成,富煜清黄志同(东南大学无线电工程系,南京210018)(南京理工大学自控系,南京210014)在许多实际的语音信号处理中,都迫切需要进行语音增强,例如,噪声环境中的语音识别[2]、语音编码、语音合成等。尽管有各种...  相似文献   

16.
为降低噪声对语音通信的干扰,提出了一种基于谱减的语音增强算法的改进方法。根据噪声频谱的G auss统计模型修正语音增强过程中噪声频谱的估计方法,利用帧内、帧间约束估计每一个频点的先验信噪比,提出了一种简便的估计语音在每一个频点出现的概率的方法,得出了修正的语音增强算法。在白噪声以及坦克噪声环境中分别对算法的性能进行测试。实验结果表明:在几乎不损伤语音清晰度的前提下,该算法使“音乐噪声”得到了更好的抑制,同时信噪比提高了约8 dB以上。  相似文献   

17.
基于能量特征的小波概率神经网络损伤识别方法   总被引:2,自引:0,他引:2  
以小波能量特征向量作为概率神经网络(PNN)的输入向量集,提出了小波概率神经网络(WPNN)的损伤识别方法.为了验证该方法的有效性,对钢框架进行了损伤识别研究,并考虑了随机噪声的影响.识别结果表明:WPNN抗噪声能力强,识别精度高,在结构损伤识别与在线检测方面具有潜力。  相似文献   

18.
语音信息的采集过程中难免会有各种噪声的干扰,噪声降低了语音的可懂度及清晰度,甚至严重影响语音处理的准确性和可靠性。谱减法是语音减噪中最常用的方法,该方法基于人的感觉特性,对语音短时幅度谱进行估计,适用于受加性噪声污染的语音。本文通过统计分析谱减法的增益补偿因子和过减因子参数,研究基于谱减法的藏语语音减噪处理,并取得较为理想的实验结果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号