首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 640 毫秒
1.
针对低资源环境下由于标注训练数据不足、造成语音识别系统识别率急剧下降的问题,提出一种采用长短时记忆网络的低资源语音识别(LSTM-LRASR)方法。该方法采用长短时记忆网络构建声学模型,从特征提取、数据扩展及模型优化3个方面提高低资源语音识别性能。在特征提取方面,提取语言无关的高层稳健特征参数,降低声学模型对训练数据的依赖;在数据扩展方面,对已有标注数据进行语速扰动,对无标注数据进行自动识别,从而自动获取更多标注数据;在模型优化方面,通过序贯区分性训练技术提高模型对易混淆音素的区分能力,利用最小风险贝叶斯解码对多个系统进行融合,进一步提高识别性能。对OpenKWS16评测数据的实验结果表明,采用LSTMLRASR方法搭建的低资源语音识别系统的词错率相对基线系统下降了29.9%,所有查询词的查询项权重代价提升了60.3%。  相似文献   

2.
针对连接时序分类模型需具有输出独立性的假设,对语言模型的依赖性强且训练周期长的问题,提出一种基于连接时序分类模型的语音识别方法.首先,基于传统声学模型的框架,利用先验知识训练基于注意力机制的语谱图特征提取网络,有效提高了语音特征的区分性和鲁棒性;其次,将语谱图特征提取网络拼接在连接时序分类模型的前端,并减少模型中循环神经网络层数进行重新训练.测试分析结果表明,该改进模型缩短了训练时间,有效提升了语音识别准确率.  相似文献   

3.
针对现有的深度学习模型在语音频带扩展领域数据特征利用不充分、训练周期长以及生成语音质量不高等问题,提出了一种新型的端到端神经网络模型,该模型通过融合不同数据维度特征促使网络模型利用更少的数据特征量,获取更多的低高频映射关系解,从而减少模型的整体训练周期.为了提高长时序数据中关键特征的权重占比,设计了一种残差多头自注意力机制,从而达到数据特征利用率的最大化.此外,提出了一种基于时频域和Mel频谱的混合损失函数对模型进行优化.实验结果表明:该方法重构的宽带语音在主客观的评价中均优于传统方法和近年来的一些基于神经网络的语音频带扩展方法.  相似文献   

4.
针对维吾尔语命名实体识别存在无法关注词序列依赖关系等问题,提出一种基于迁移学习的联合深度模型(TBIBC).首先通过BERT(Bidirectional Encoder Representations from Transformers)预训练中文数据集生成具有语义信息的词向量,再将词向量序列通过空洞卷积神经网络(IDCNN)进行膨胀操作以减少神经元层数和参数,输出向量输入到双向门控循环单元(BiGRU)进行上下文语义信息提取,然后通过CRF层得到最优标签序列.模型采用共享深度神经网络隐藏层的方法将训练好的中文实体识别模型迁移到维吾尔语模型上.结果表明,该模型的准确率为91.39%,召回率为90.11%,F1值达到90.75%,能显著提升维吾尔语命名实体识别性能.  相似文献   

5.
针对传统神经网络语言模型方法只关注词语之间关系或者词语内部信息而导致维吾尔语语言模型困惑度(PPL)过高的问题,提出了融入词素信息的维吾尔语神经网络语言模型.该方法在传统神经网络语言模型的基础上添加了词内结构建模层及合并层,利用双向长短时序记忆网络来捕捉词内结构信息,并与word2vec训练好的词向量相结合作为神经网络语言模型的输入;同时还采用重构N元语法(N-gram)语言模型的方式将神经网络模型应用到汉维统计机器翻译中.实验表明该模型的PPL降低了19.93,在汉维统计机器翻译任务中机器双语互译评估(BLEU)值提升了0.28个百分点.  相似文献   

6.
将深层神经网络(Deep Neural Network)应用于汉语方言种属语音识别.基于优化的QuickNet软件,为方言识别实现了一种有监督的DNN逐层预训练方法.在训练时,从3层开始逐层做有监督的神经网络训练,每增长一层的初始权值包含前一层训练好的部分权值和输出端的随机权值.在得到最大层的初始权值后,再进行传统的BP网络训练.该方法和普通神经网络相比识别率有较大提升,可用于移动互联网标准语音识别人口、方言口音鉴识等领域.  相似文献   

7.
将深层神经网络(Deep Neural Network)应用于汉语方言种属语音识别.基于优化的QuickNet软件,为方言识别实现了一种有监督的DNN逐层预训练方法.在训练时,从3层开始逐层做有监督的神经网络训练,每增长一层的初始权值包含前一层训练好的部分权值和输出端的随机权值.在得到最大层的初始权值后,再进行传统的BP网络训练.该方法和普通神经网络相比识别率有较大提升,可用于移动互联网标准语音识别入口、方言口音鉴识等领域.  相似文献   

8.
为在保障网络训练速度的基础上进一步提高语音增强性能,提出一种融合注意力(Atten-tion)机制的准循环神经网络(QRNN)语音增强方法.通过QRNN序列信息并行计算的特性保证网络的训练速度,将Attention机制重新赋予权重的含噪语音序列作为QRNN层的输入,使网络更加关注目标语音序列信息,以提高语音增强模型的性...  相似文献   

9.
语音情感识别是实现自然人机交互的重要组成部分,传统语音情感识别系统主要集中于特征提取和模型构建。本文提出一种将深度神经网络直接应用于原始信号的语音情感识别方法。原始语音数据携带了语音信号的情感信息、二维空间信息和时序上下文信息。建立的模型以端到端的方式进行训练,网络自动学习原始语音信号的特征表示,无需手工特征提取步骤。该网络模型同时兼顾了CNN和BLSTM 2种神经网络的优点。利用CNN从原始语音数据中学习空间特征,其后添加一个BLSTM学习上下文特征。为了评估该模型的有效性,在IEMOCAP数据库上进行识别测试,获得的WA和UA分别为71.39%、61.06%。此外,与基线模型进行对比,验证了提出方法的有效性。  相似文献   

10.
为了提高情感语音合成的质量,提出一种采用多个说话人的情感训练语料,利用说话人自适应实现基于深度神经网络的情感语音合成方法。该方法应用文本分析获得语音对应的文本上下文相关标注,并采用WORLD声码器提取情感语音的声学特征;采用文本的上下文相关标注和语音的声学特征训练获得与说话人无关的深度神经网络平均音模型,用目标说话人的目标情感的训练语音和说话人自适应变换获得与目标情感的说话人相关的深度神经网络模型,利用该模型合成目标情感语音。主观评测表明,与传统的基于隐马尔科夫模型的方法比较,该方法合成的情感语音的主观评分更高。客观实验表明,合成的情感语音频谱更接近原始语音。所以,该方法能够提高合成情感语音的自然度和情感度。  相似文献   

11.
深度神经网络技术在汉语语音识别声学建模中的优化策略   总被引:1,自引:1,他引:0  
将深度神经网络作为声学模型引入面向汉语电话自然口语交谈语音识别系统。针对自然口语中识别字错误率较高的问题,从语音的声学特征类型选择、模型训练时元参数调节以及改善模型泛化能力等方面出发,对基于深度神经网络的声学模型建模技术进行了一系列的优化。针对训练样本中状态先验概率分布稀疏的情况,提出了一种状态先验概率平滑算法,在一定程度上缓解了这种数据稀疏问题,经平滑后,字错误率下降超过1%。在所采用的3个电话自然口语交谈测试集上,相对于优化前的深度神经网络模型,经过优化后的模型取得了性能的一致提升,字错误率平均相对降低15%。实验结果表明,所采用优化策略可以有效地改善深度神经网络声学模型性能。  相似文献   

12.
为了解决语音识别中由网络加深导致的低层特征消失、参数量大及网络训练困难的问题,基于Inception V3网络的非对称卷积思想,提出了一种改进的密集连接卷积神经网络(densely connected convolutional neural networks, DenseNet)模型。根据语音识别的长时相关性,通过密集连接块建立起不同层之间的连接关系,从而保存低层特征、加强特征传播;为了得到尺度更丰富的声学特征,将卷积核的范围进行扩大;利用非对称卷积思想分解卷积核,以减少参数量。实验结果表明,相较经典深度残差卷积神经网络模型和原始DenseNet模型,提出的模型在THCHS30数据集上的语音识别性能更好,在保证识别率的情况下,还减少了网络参数量,提高了模型训练效率。  相似文献   

13.
不同噪声在频谱上具有不同的特性,为了解决卷积神经网络对含有不同噪声的语音降噪的局限性,通过引入通道注意力机制作为卷积循环网络的中间层,将卷积层中不同功能的卷积核赋予不同的权重,使模型在训练时能够对输入数据更有针对性地去除噪声部分,从而达到更好的降噪效果.针对含有15种噪声的含噪语音分别应用循环神经网络、编解码卷积网络和...  相似文献   

14.
极限学习机是一种新型的单隐层前馈神经网络,在训练网络的过程中随机给定输入层权值和隐藏层偏差,所以训练速度非常快,但却导致了输出不稳定.提出了一种基于AdaBoost的极限学习机,把极限学习机作为AdaBoost的基本分类器,通过改变输入数据的权重,使得极限学习机的分类性能得到提升.实验结果表明了该方法与极限学习机和传统的神经网络相比,能够提高极限学习机的学习性能,并且使极限学习机输出更加稳定.  相似文献   

15.
为了提高噪声环境下语音识别系统的鲁棒性,提出了一种基于迁移学习的声学建模方法。该方法用干净语音的声学模型(老师模型)指导带噪语音的声学模型(学生模型)进行训练。学生模型在训练过程中,尽量使其逼近老师模型的后验概率分布。学生模型和老师模型间的后验概率分布差异通过相对熵(KL divergence)加以最小化。CHiME-2数据集上的实验结果表明,该方法的平均词错率(WER)比基线的绝对下降了7.29%,比CHiME-2竞赛第一名的绝对下降了3.92%。  相似文献   

16.
尝试运用模糊数学方法对指标数据运用隶属度函数处理,在确立了中小企业商务成本综合评价指标体系的基础上,建立了模型。以一级模糊综合评价向量作为神经网络评价模型的输入,该网络具有四个因子输入,一个衡量中小企业商务成本的输出,总共六层结构,模糊规则层最大的优势在于根据具体问题情况进行调节的能力,所以利用神经网络模型对中小企业商务成本进行评价,由于神经网络的非线性处理能力使评价更具体和科学。利用Matlab7.0对178组样本数据进行实证分析,训练结果表明网络预测误差小。  相似文献   

17.
利用神经机器翻译进行维吾尔语到汉语的翻译时,维吾尔语中的代词不区分性别,给翻译模型在汉语端使用正确的代词带来了挑战.另外,由于训练数据集中不同性别的代词使用频率差异明显,神经机器翻译倾向于输出阳性代词而不是更恰当的代词.基于此,利用汉语单语语料构造伪平行数据以扩展原训练集,缓解训练集本身的代词不平衡问题;并分别引入性别标记和翻译、性别预测联合建模两种方法,将代词性别预测显式地融入神经机器翻译的训练过程.在多个维汉翻译测试集上进行实验验证,结果表明该方法相对于基线系统,在不影响翻译质量的情况下缓解了翻译输出结果的性别偏见问题,在代词性别预测的精度上也有显著提升.  相似文献   

18.
基于BP网络的HSRC节点骨架曲线的预测   总被引:1,自引:1,他引:0  
结合5个在低周期反复荷载作用下的钢骨高强混凝土柱/钢筋高强混凝土梁框架节点的试验研究,描绘了节点的骨架曲线·利用神经网络的原理,通过建立神经网络的输入层、隐含层、输出层,确定输入单元、输出单元和隐含层节点数,从而建立了神经网络的模型,并根据已有的一些数据,对网络进行训练,使其具有分析和判断的功能,从而对钢骨高强混凝土框架节点的骨架曲线进行了预测·结果表明,这种方法是可行的·  相似文献   

19.
探讨了曲面密集三维散乱点数据的拓扑矩形网格自组织压缩重建方法。建立了基于自组织特征映射神经网络的三维散乱点数据的拓扑矩形网格自组织压缩重建模型。该模型利用神经元对曲面散乱点的学习和训练来模拟曲面上的点与点之间的内在关系,结点连接权矢量集作为对散乱点集的工程近似化并重构曲面样本点的内在拓扑关系,实现曲面密集三维散乱点数据的自组织压缩。按矩形阵列侧抑制邻区训练调整网络神经元权重矢量,使网络输出层结点呈矩形阵列分布,可生成测量点集压缩后的拓扑矩形网格,可用于NURBS曲面重构。计算机仿真实验表明,所建模型可以实现三维密集散乱点数据自组织压缩,生成期望疏密程度和精度的双有序点列,重建矩形拓扑网格。  相似文献   

20.
提出了一种有效的特征学习方法,构建了9层结构的卷积神经网络,利用Softmax回归算法进行人脸分类识别.卷积神经网络在输出层利用改进的Softmax进行分类,在隐藏层采用修正线性单元作为激活函数,并在网络中加入局部响应归一化处理,有效避免了梯度消失问题.利用大量人脸图像数据对网络进行预训练,得到较好的网络初始权重.在针对YALE,FERET,LFW-A等人脸数据库进行人脸识别实验中,与现有的几种人脸识别方法 SDAEs,RRC,MPCRC,CRC,SRC等进行对比表明,该方法在各人脸数据库的识别中均得到较高的识别率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号