首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
藏语语音合成中语料数据标注规则的设计   总被引:1,自引:0,他引:1  
基于隐马尔可夫模型(HMM)的藏语语音合成系统中,语料数据的标注是训练声学模型的基础和关键。文章结合藏语独有的语音特点对语料数据设计套标注规则,并以Praat为标注环境实现语料的标注。  相似文献   

2.
近年来,基于深度学习的神经机器翻译已经成为机器翻译的主流方法.神经机器翻译模型比统计机器翻译模型更依赖于大规模的标注数据.因此,当训练语料稀缺或语料领域不一致时,翻译质量会显著下降.在藏汉翻译中,训练语料大多为政府文献领域且数据稀缺;在汉英语音翻译中,训练语料大多为书面语领域且噪音语料稀缺.为了提高神经机器翻译模型在这2个任务上的表现,该文提出了一种噪音数据增强方法和2种通用的领域自适应方法,并验证了其有效性.  相似文献   

3.
藏语语音合成语料库的好坏对合成语音质量有很大的影响。本文介绍了藏语拉萨话语音合成语料库的设计过程,语料的设计考虑了内容上和语义上的完整性,利用Greed算法实现对语料的选取,同时严格按照标准的录音过程对语料进行录制,最后设计了一套韵律标注规则对语料库中的语音数据进行了音段特征和超音段特征的标注,基本完成了藏语拉萨话语音合成语料库的建立。  相似文献   

4.
本文设计并建立了一个包含发音运动学、声学、声门和面部微表情的多模态情感语音汉语普通话数据库,分别从语料设计、被试选择、录制细节和数据处理等环节进行了详细的描述,其中信号被标记为离散情感标签(中性、愉悦、高兴、冷漠、愤怒、忧伤、悲痛)和维度情感标签(愉悦度、激活度、优势度)。本文对维度标注的数据进行统计学分析,验证标注的有效性,同时验证标注者的SCL-90量表数据并与PAD标注数据结合后进行分析,探究标注中存在的离群现象与标注者心理状况之间的内在联系。为验证该数据库的语音质量和情感区分度,本文使用SVM、CNN、DNN3种基础模型计算了7种情感的识别率。结果显示,单独使用声学数据时7种情感的平均识别率达到了82.56%;单独使用声门数据时平均识别率达到了72.51%;单独使用运动学数据时平均识别率也达到了55.67%。因此,该数据库具有较高的质量,能够作为语音分析研究的重要来源,尤其是多模态情感语音分析的任务。  相似文献   

5.
基于Zigbee的数话同传技术研究   总被引:1,自引:1,他引:0  
设计实现基于JN5139模块的全双工VoIP语音与数据同传终端,解决了缓冲区不足造成的声音断续问题.将其应用于多媒体无线传感器网络中,在Cluster+AODVjr的路由算法基础上,提出基于数据类型的路由策略,避免RREQ分组大量洪泛,并均衡节点能量消耗.借助E-model方法对语音质量进行评价,最远语音传输距离达150m,最高数据丢包率在8%以下.  相似文献   

6.
为了提高情感语音合成的质量,提出一种采用多个说话人的情感训练语料,利用说话人自适应实现基于深度神经网络的情感语音合成方法。该方法应用文本分析获得语音对应的文本上下文相关标注,并采用WORLD声码器提取情感语音的声学特征;采用文本的上下文相关标注和语音的声学特征训练获得与说话人无关的深度神经网络平均音模型,用目标说话人的目标情感的训练语音和说话人自适应变换获得与目标情感的说话人相关的深度神经网络模型,利用该模型合成目标情感语音。主观评测表明,与传统的基于隐马尔科夫模型的方法比较,该方法合成的情感语音的主观评分更高。客观实验表明,合成的情感语音频谱更接近原始语音。所以,该方法能够提高合成情感语音的自然度和情感度。  相似文献   

7.
规范的重音标注将对重音研究和语音合成技术产生积极影响。该文通过对大规模语料进行语流中词重音和句重音标注,总结出了重音标注的规则。重音标注包括标注训练、正式标注、语料库建立3个步骤。通过标注训练明确重音概念和标注方法,词重音采取词内对比法,所谓"重"主要指突显度和饱满度;句重音采取呼吸句群单位标注法,注重标注的层级性,不跨句群进行重音知觉对比。重音标注完成后,重音语料库也随之建立起来。这个大规模的重音语料库具备词重音和句重音信息,适用于语音合成领域,能较好地提高合成语音的自然度。  相似文献   

8.
提出一种基于条件随机域模型的方法用于中文文本组块分析. 该方法将中文组块分析转化为对每个词语赋予一个组块标注符号, 再根据条件随机域对标注好的训练语料建立模型, 从而预测测试语料中每个词语的组块标注符号. 使用北京大学中文树库的测试结果为F1=85.5%, 高于隐马尔可夫模型和最大熵马尔可夫模型. 实验结果表明, 条件随机域在中文组块识别方面有效, 并避免了严格的独立性假设和数据归纳偏 置问题.  相似文献   

9.
为了进一步提高完全句法分析标注的准确率,对人工修正的完全句法分析语料进行剖析,从分词、词性和句法结构三个层面检验一致性,总结标注结果不一致的类型,并提出基于分层的自动发现不一致现象的方法及相应的消解策略。实验表明,利用该方法可使语料库标注的准确率提高2.5%。  相似文献   

10.
针对微博的倾向性分析问题,提出了一种基于三元词组模式的情感分类方法。该方法通过构造情感词典及微博的三元词组模式,对未标注语料自动进行情感评分并标注情感极性,然后使用自动标注的语料训练得到情感分类器。在测试集上的实验结果表明,使用无人工参与标注的训练语料达到了79.26%的测试正确率。  相似文献   

11.
针对发音偏误检测系统语音标注费时、费力和标注不一致的问题, 基于发音特征, 构建偏误检测系统, 给出Top-N的识别结果, 通过praat软件呈现机器初步标注文本, 在此基础上进行人工二次标注。实验结果表明, 与单纯的人工标注相比, 所提出的自动标注加人工二次标注方法在标注一致性上从80.7%提高到92.48%, 平均每个句子的标注时间从10分钟减少到3分钟。所提方法有效地提高了人工标注的效率, 可以在有限时间内为识别系统提供更多可靠的标注语料。  相似文献   

12.
对于大规模的语音语料,语音切分方法主要有传统的人工切分和机器自动化切分2种方式.人工切分大规模语音语料的切分质量易控制,但效率低、成本高;机器自动化切分效率高,但后期查找切分错误时任务极其繁重.因而提出一种人机交互语音切分系统,切分人员可选择自动切分算法,设置切分参数,修改有问题的自动切分结果,同时可自动生成用于HTK训练的标注文件.以课题组采集的1 000个普米语语音文件为研究对象,以普米语孤立词为切分基元,机器自动化切分存在难以避免的切分错误,后期检查时工作量巨大;然而使用本文提出的人机交互语言切分系统进行切分,切分人员在无需高认知度的情况下也可做到近100%的切分正确率.  相似文献   

13.
建立了一个兰州方言语料库.利用<方言调查字表>设计了兰州方言的文本语料,包括1 280个单字,2 000个双字词,18个负载句和1 000句语句,录制了4位发音人的兰州方言和普通话平行的语音语料,并标注了音节边界、峰值点、声韵母和声调信息;对于语句,根据词法信息和语法信息,利用TBL算法标注了韵律边界.语料库可用于兰州方言的实验语音学研究以及兰州方言的韵律建模、语音合成、语音转换的研究.  相似文献   

14.
面向训练语料有限的语音识别任务,基于动态时间规整(dynamic time warping, DTW)算法对俄语语音进行识别。首先,以跨语言标注的语音语料为资源基础,研究融合音字转换和机器翻译的语音识别方法。其次,结合俄语语音特点,以元音为中心设置动态门限阈值,实现精确至音节的端点检测,识别速度提高了34.4%,准确率提高了14%。然后,综合时域、频域分析,提取反映语音静态特征和动态变化的参数模板。另外,引入全局限制和早弃策略改进DTW算法,避免病态匹配,缩小计算规模,使速度提高了19.7%,准确率提高了4.8%。在俄语短指令语音集上做五折交叉验证,识别准确率达到74.9%。  相似文献   

15.
基于XML /Schema 甲骨文语料库语料标注的研究   总被引:3,自引:1,他引:2  
对语料库进行语料标注是实现原始语料信息计算机可读的关键.采用XML+XML Schema对甲骨文语料库进行结构化标注,使不同类型的数据表示成统一的格式,方便数据的交换与共享.给出了一种依据XML文档中使用的词汇集,对词汇集进行建模来约束XML文档中使用的元素和属性及其之间的结构关系和数据类型.根据定义好的XMLSchema使用XML对甲骨文信息进行结构化标注,可以准确地描述数据的结构及数据类型.  相似文献   

16.
由于面向中文微博的分词标注语料相对较少,导致基于传统方法和深度学习方法的中文分词系统在微博语料上的表现效果很差。针对此问题,该文提出一种主动学习方法,从大规模未标注语料中挑选更具标注价值的微博分词语料。根据微博语料的特点,在主动学习迭代过程中引入参数λ来控制所选的重复样例的个数,以确保所选样例的多样性;同时,根据样例中字标注结果的不确定性和上下文的多样性,采用Max、Avg和AvgMax这3种策略衡量样例整体的标注价值;此外,用于主动学习的初始分词器除使用当前字的上下文作为特征外,还利用字向量自动计算当前字成为停用字的可能性作为模型的特征。实验结果表明:该方法的F值比基线系统提高了0.84%~1.49%,比目前最优的基于词边界标注(word boundary annotation,WBA)的主动学习方法提升效果更好。  相似文献   

17.
语音处理上如何逐渐减少对具体语料的依赖?   总被引:1,自引:0,他引:1  
为解决语音处理上对大量具体语料的依赖及其繁重处理的问题,该文首先通过对语音处理的根本目标与语音技术的当前现状的分析,指出了这种依赖性的根源。接着通过对语音多变的不可避免性与声学不变量的相对性的阐述,说明语音的变化并非完全不可知,进而指出解决问题的关键在于充分认识语音变化的规律性和在处理系统中综合利用这些规律。最后,提出一个解决策略,基本原则就是通过完善语料库建设来促进知识与语料的有机结合,逐步以相对关系上的声学不变量来取代具体语料的作用。并对相关语料库的建设提出了初步设想。  相似文献   

18.
文章就语音增强的发展历程以及面向藏语语音的研究现状和语音特征作了介绍和分析,并选择藏语拉萨话作为语音增强实验的语种.文章选择经典的谱减法作为语音增强方法,并介绍了谱减法原理,同时设计实验方案,实验语料使用纯净语音和噪音混合成的带噪语音,按照不同信噪比进行语音测试,得到了大量数据结果.在分析结果的基础上得出结论:使用谱减法能够明显提升语音质量,提升效果随着噪音语音相关度的多少而变化.  相似文献   

19.
近年来,一些学者通过各种方式对英语专业学生的英语语音问题进行调查研究,并提出了一些教学建议和启示。然而,利用语料方法来进行研究的并不多。文章借鉴语料库语言学的研究方法,收集并分析了英语专业新生的语音语料,由此发现了学生语音学习过程中存在的典型难题,这对英语语音教学有重要的参考和启示作用。  相似文献   

20.
基于神经机器翻译模型Transformer,提出一种融合数据增强技术和多样化解码策略的方法来提高机器翻译的性能.首先,对训练语料进行预处理和泛化,提高语料质量并缓解词汇稀疏的现象;然后,基于数据增强技术使用单语句子构造伪双语数据,扩充双语平行语料以增强模型;最后,在解码阶段融合检查点平均、模型集成、重打分等策略以提高译文质量.第16届全国机器翻译大会(CCMT 2020)中英新闻领域翻译任务的实验结果显示,改进后的方法较基线系统的双语互译评估(BLEU)值提升了4.89个百分点.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号