首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 78 毫秒
1.
连续语音识别中的说话人快速自适应技术   总被引:2,自引:0,他引:2  
语音识别技术中说话人快速自适应技术受到普遍关注。该文综述了说话人快速自适应技术在国际上的研究现状 ,并且介绍了本研究组提出的快速自适应方法 ,即最大似然模型插值快速自适应框架及插值算法。与现有的相关自适应方法相比 ,该算法在更复杂的识别系统上同时实现了均值和协方差的自适应 ,并取得较好的自适应效果。当仅有一句自适应数据时 ,识别系统的误识率从 2 8.75 %下降到2 4 .93%。  相似文献   

2.
针对特征语音说话人自适应算法的缺陷,提出了基于结构化特征语音模型的区别性说话人自适应方法.该算法能根据自适应数据量调整自适应参数,并采用基于最大互信息量准则的区别性参数估计方法,进一步提高了自适应性能.有监督自适应的实验结果表明,在仅有一句自适应语句的情况下系统误识率相对下降了6.7%,同时算法表现出了优于特征语音自适应方法的渐进性能.  相似文献   

3.
蔡铁  朱杰 《上海交通大学学报》2005,39(12):1997-2001
针对语音识别系统中快速说话人自适应问题,提出了一种支持说话人权重算法.该算法通过支持说话人的计算实现了说话人选择与自适应参数的降维,减少了自适应时的存储量,有效提高了自适应数据较少时的性能.有监督自适应的实验结果表明,在仅有一句自适应语句的情况下系统误识率相对非特定人(SI)系统下降了5.82%,明显优于其他快速自适应算法.  相似文献   

4.
提出了一种新的语音识别方法,该方法综合了VQ,HMM和无教师说话人自适应算法的优点。该方法首先在每个状态通过用矢量量化误差值取代传统HMM的输出概率值来建立VQ-HMM,同时采用无教师自适应矢量量化算法,来改变VQ-HMM的各状态的码字,从而实现对未知说话人的码本适应。本文通过非特定人汉语数码(孤立和连续数码)识别实验,把新的组合方法同基于CHMM的自适应和识别方法进行了比较,实验结果表明该方法鲁棒性好,所需计算量较少,自适应和识别效果远优于基于CHMM的方法。  相似文献   

5.
为解决语音识别系统实用中的说话人口音快速自适应问题,提出了一种动态说话人选择性训练方法。基于说话人选择性训练方法,采用基于Gauss混合模型似然分数计算的置信测度选择训练用说话人,改变训练用说话人的绝对数目选取方式,提高了选取的效能并拓展了选取标准的推广性。根据各个训练用说话人同被适应说话人的不同似然程度,加权地合成动态说话人选择性训练的语音模型,提高了自适应训练的效果。实验表明:该方法使识别率从80.16%提高到84.12%,相对误识率降低了19.96%,在实用中提高了基线系统的识别性能。  相似文献   

6.
为增强自适应后的声学模型的鉴别能力,提出了一种基于最大互信息(MMI)的鉴别性最大后验概率线性回归(MMI-DMAPLR)说话人自适应方法. 将最大互信息准则和最大后验概率(MAP)准则相结合,设计了一个新的目标函数来估计基于线性变换的自适应方法中的变换参数,在最大后验概率估计中加入了鉴别性. 大词汇量连续语音识别的实验结果表明,新方法在增强声学模型与测试数据的匹配性的同时,可以有效提高声学模型的鉴别能力,在少量自适应数据的情况下,其性能比最大后验概率线性回归(MAPLR)相对提高4.8%.   相似文献   

7.
将神经网络预测模型(NPM)应用于说话人识别中,经过实验,获得了较满意的结果。这说明神经网络对于说话人识别是一种很有潜力的方法。  相似文献   

8.
为了解决传统说话人识别系统在集成学习后识别速度变慢且容易过学习的问题,构造了一种基于最大后验矢量量化(VQMAP)模型和自适应提升(AdaBoost)学习算法的说话人识别系统.首先,分析了说话人识别系统中基分类器性能对集成分类器泛化误差的影响.然后,针对说话人的类别数,构造适当精度的VQMAP模型.最后,利用包含提前终止策略的AdaBoost学习算法将该模型提升为强分类器.实验结果表明:该算法的识别速度较高,是最大后验高斯混合模型(GMMMAP)的9倍;该算法可有效控制AdaBoost学习算法在说话人识别中的过学习问题,其性能优于VQMAP模型,且在训练数据较少或者类别数可预计的情况下,其性能可接近甚至超过GMMMAP模型.  相似文献   

9.
为了提高在噪声环境下语音识别系统的性能,对基于子带独立感知理论的语音识别方法进行了研究.这些方法利用人耳对不同频率信号感知的差异,以及噪声和识别对象的频域特征差异,分别采用线性分析、判决分析、多层感知机以及子带最大似然估计对噪声影响进行补偿.实验表明,子带分析采用非线性策略优于线性策略.基于独立感知假定的子带模型,虽然由于独立性假定丢失了带间相关性,但对于噪声环境下语音识别而言可以捕获噪声和识别对象的频谱差异,从而获得比全带分析更高的鲁棒性.  相似文献   

10.
对于基于Gauss混合模型-通用背景模型(Gaussianmixure model-universal background model,GMM-UBM)方法的文本无关说话人识别,当测试语音时长缩短到很短时,识别率会严重下降。为了充分利用文本内容信息,该文提出了一种基于K-top多音素类模型混合(KPCMMM)的建模方法。在音素识别阶段,利用语音识别得到训练语音的音素序列,在说话人识别阶段利用音素序列对每个说话人训练多个音素类模型,测试语音则在最相近的音素类模型上进行打分判决,K是选取的相近音素类数。由于音素类定义的不同,KPCMMM方法分为基于专家知识和数据驱动这两类。实验结果显示选择合适的K值可以得到更好的识别结果。不同的音素类定义方法的比较实验结果显示:当测试语音时长小于2s时,对比GMM-UBM基线系统,该方法的等错误率(EER)相对下降38.60%。  相似文献   

11.
A transformation matrix linear interpolation (TMLI) approach for speaker adaptation is proposed. TMLI uses the transformation matrixes produced by MLLR from selected training speakers and the testing speaker. With only 3 adaptation sentences, the performance shows a 12.12% word error rate reduction. As the number of adaptation sentences increases, the performance saturates quickly. To improve the behavior of TMLI for large amounts of adaptation data, the TMLI MAP method which combines TMLI with MAP technique is proposed. Experimental results show TMLI MAP achieved better recognition accuracy than MAP and MLLR MAP for both small and large amounts of adaptation data.  相似文献   

12.
针对单一声学特征无法精准高效地辨识说话人身份的问题,提出了一种基于多特征I-Vector的说话人识别算法.该算法首先采集不同的声学特征并将其构成一个高维特征向量,然后通过主成分分析法有效地剔除高维特征向量的关联,确保各种特征之间正交化,最后采用概率线性判别分析进行建模和打分,并在一定程度上降低空间维度.在TIMIT语料库上利用Kaldi进行实验,算法运行结果表明,该算法较当前流行的基于I-Vector的单一梅尔频率倒谱系数和感知线性预测系数的特征系统在等错误率上分别提高了8.18%和1.71%,在模型训练时间上分别减少了60.4%和47.5%,具有更好的识别效果和效率.  相似文献   

13.
最大后验估计和加权近邻回归结合的说话人自适应方法   总被引:1,自引:0,他引:1  
提出了一种最大后验 (m aximum a posteriori,MAP)估计和加权近邻回归 (weighted neighbors regression,WNR)相结合的说话人自适应方法。在 MAP自适应中 ,只有自适应数据对应的模型参数可以得到调整。针对这一缺点 ,提出一种基于变换的模型插值 /平滑方法 - WNR,利用模型近邻信息和 MAP自适应结果 ,建立距离加权的回归模型 ,对没有自适应数据的模型完成模型调整。实验证明 ,该方法可以有效地提高 MAP自适应的速度。在自适应数据为 10句时 ,音节误识率降低近 15 % ;而在自适应数据为 2 5 0句时 ,误识率降低 5 0 %以上。此外 ,证明了向量域平滑 (vectorfield sm oothing,VFS)是 WNR方法的一种退化的特例  相似文献   

14.
为了克服传统VQ与GMM说话人识别的缺点,提出了一种新的FVQMM说话人识别方法。该方法综合了VQ、GMM和模糊集理论的优点。通过用模糊VQ误差尺度取代传统GMM的输出概率函数,减少了建模时对训练数据量的要求,提高了识别速度。实验结果表明该方法是有效的。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号