共查询到17条相似文献,搜索用时 62 毫秒
1.
图像分割是一个经典难题,随着影像医学的发展,图像分割在医学应用中具有特殊的重要意义.马尔可夫随机场(Markov Random Field,即 MRF)方法是图像分割中一个极为活跃的研究方向.本文介绍了基于马尔可夫随机场模型的一般理论与图像的关系.并对基于MRF的传统条件迭代模式算法(ICM)进行改进,在初始分割后,对图像的像素点分为两类:稳定点和不稳定点,用队列存储不稳定点,每次迭代只对队列里面的不稳定点进行计算,以减少运算量.实验结果表明,改进的算法能够大幅度提高计算效率. 相似文献
2.
语义分割的目标是对图像进行像素级分类并分割为表示不同语义的区域,以便实现对更复杂场景的分析及理解。考虑到更大的卷积核对目标的定位及分割都有促进作用,故提出的网络里使用了一种基于上下文情景结构层(contextual structure)的卷积神经网络,既增大了感受野的范围,同时解决了增大传统卷积核带来大量参数的问题。自然图像中的目标往往具有不同的尺度和纵横比,提取丰富的细节信息和上下文信息对于像素级的预测至关重要。提出的网络同时实现了多尺度特征的提取,从规模较小区域到规模较大区域,再到完整目标,可以有效提取局部信息和全局信息,达到分割多尺度目标的效果。实验中使用PASCAL VOC 2012数据集对提出的方法进行评测,在综合考虑算法复杂度以及运行时间效率的基础上,提出算法取得了更好的实验结果。 相似文献
3.
从图像中提取多种特征向量堆叠为一个高维特征向量用于图像语义分割,会导致部分特征向量的分类能力减弱或丢失。针对此问题,提出了一种结合深度卷积神经网络AlexNet和条件随机场的图像语义分割方法。利用预训练好的AlexNet模型提取图像特征,再通过条件随机场对多特征及上下文信息的有效利用来实现图像的语义分割。与利用传统经典特征的方法进行对比,实验结果表明:在利用AlexNet模型提取特征进行图像语义分割时,Conv5层为最有效的特征提取层,在Stanford background和Weizmann horse数据集下的识别准确率分别为81.0%和91.7%,均高于其他2种对比方法,说明AlexNet可以提取更有效的特征,得到更高的语义分割精度。 相似文献
4.
提出了一种基于MRF模型和最大后验概率准则的SAR目标切片图像分割方法.该方法通过对SAR目标切片图像中不同的区域所占比例进行统计分析,得到了一种有效分割的迭代初值选择方法.本文给出了模拟退火算法,ICM算法,吉布斯抽样算法对模拟图像和实测SAR图像目标区域进行了分割,结果表明,采用本文提出的方法可以加速迭代的收敛过程,降低迭代次数,提高分割速度. 相似文献
5.
针对视网膜血管分布复杂且多变,提出一种基于上下文特征提取的视网膜血管分割算法。首先通过霍特林变换(Karhunen-Loeve, K-L)生成灰度图并经过预处理增强对比度。然后经过局部信息熵进行采样。该网络编码部分的多感受野残差编码模块在兼顾速度的同时对特征进行充分的提取。同时底部的特征融合模块由非对称融合非局部模块和非对称金字塔非局部模块两部分组成,用于融合图片的上下文特征。而解码部分由多个微型U型网络组成,保证将底层特征和高层映射特征有效融合并进行深层次的再提取。本文算法在血管分割的数字视网膜图像数据集(digital retinal image for vessel extraction, DRIVE)数据集进行仿真,准确率为96.45%,特异性为98.37%,敏感度为82.7%,实验结果表明能有效地分割视网膜血管。 相似文献
6.
张春元 《广西师范大学学报(自然科学版)》2011,29(1):138-142
针对当前新闻网页主题内容抽取方法较少利用网页块之间关联特性这一问题,提出了一种基于条件随机场(CRFs)的新闻网页主题内容自动抽取方法.该方法首先将待抽取网页解析成DOM树,经过滤、剪枝以及压缩处理后,然后按照一定的启发式规则将DOM树切割成块并转换成为一个数据序列,再定义CRFs特征函数来提取各网页块自身状态特征和相... 相似文献
7.
前景物体的边缘信息对混合交通视频检测的参数提取和表达具有非常重要的作用. 为克服孤立地利用当前图像无法准确提取边缘信息的问题,提出了基于时空上下文表达的混合交通边缘提取新算法. 在获取当前边缘信息基础上,结合运动目标的特征属性与时空上下文相关信息,通过检索文本的关联性,进行前景边缘提取. 实验表明,文中算法能够准确而充分利用上下文信息实现前景边缘的提取,前景边缘的有效提取率可达95%以上,为后续混合交通视频检测的分类识别和参数提取提供了有效的依据. 相似文献
8.
基于条件随机场的中文科研论文信息抽取 总被引:1,自引:1,他引:1
科研论文头部信息和引文信息对基于域的论文检索、统计和引用分析是必不可少的.由于隐马尔可夫模型不能充分利用对抽取有用的上下文特征,因此文中提出了一种基于条件随机场的中文科研论文头部和引文信息抽取方法,该方法的关键在于模型参数估计和特征选择.实验中采用L-BFGS算法学习模型参数,并选择局部、版面、词典和状态转移4类特征作为模型特征集.在信息抽取时先利用分隔符、特定标识符等格式信息对文本进行分块,在分块基础上用条件随机场进行指定域的抽取.实验表明,该方法抽取性能明显优于基于隐马尔可夫模型的方法,且加入不同的特征集对抽取性能提升作用不同. 相似文献
9.
树结构的构造适合小波图像编码,但并不适合视频编码,利用熵编码原理,提出了视频图像编码算法,先将每帧的残差补偿到原始序列,并通过块分割编码和上下文模型进行视频编码.研究结果表明:该算法在视觉质量、算法性能和编码效率上要优于传统的视频编码算法. 相似文献
10.
为降低传统基于条件随机场(CRF)的视频分割的时间复杂度,提出了一种基于视频分块处理的CRF视频分割算法.该算法利用像素空间相关性对原视频帧进行分块处理形成新视频帧,然后使用CRF对新视频帧进行分割,最后根据初始分割、前一帧分割结果和当前帧CRF分割结果实现最终的分割.实验结果表明,在不明显增加误分割率的前提下,文中算法能有效降低时间复杂度. 相似文献
11.
面向专利文献的汉语分词技术研究 总被引:2,自引:0,他引:2
针对专利文献专业术语多、领域广的特点, 采用基于领域词典与统计相结合的方法探讨了专利文献的汉语分词问题。利用NC-value算法抽取专业术语, 使用条件随机场模型(CRF)提高专业术语识别率, 提高分词精度。实验结果表明, 提出的方法在开放测试下分词的准确率为95.56%, 召回率为96.18%, F值为95.87%, 大大提高了专利文献的分词精度。 相似文献
12.
利用自然语言理解技术进行古汉语断句及句读标注的主要挑战是数据稀疏问题.为了解决这一难题,设计了一种六字位标记集,提出了一种基于层叠式条件随机场模型的古文断句与句读标记方法.基于六字位标集,低层模型用观察序列确定句子边界,高层模型同时使用观察序列和低层的句子边界信息进行句读标记.实验在5 M混合古文语料上分别进行了封闭测试和开放测试,封闭测试断句与句读标注的F值分别达到96.48%和91.35%,开放测试断句与句读标注的F值分别达到71.42%和67.67%. 相似文献
13.
研究针对颅内各组织的MRI图像的新型分割算法.利用支持向量机(support vector machine, SVM)在解决高维及非线性问题的优势和条件随机场(conditional random field, CRF)有效学习数据之间局部依赖关系的优势,将SVM与CRF相结合,提出了多分类的支持向量机条件随机场分割算法(SVM-CRF),并应用于MR图像中各脑组织的分割.实验结果显示,对于较易识别的脑脊液,SVM-CRF算法比SVM算法和CRF算法的分割精度分别提高了1.83%和5.81%;对于较难识别的骨松质,SVM-CRF算法比SVM算法和CRF算法的分割精度分别提高了1.84%和7.60%.理论分析与实验结果表明,SVM-CRF算法的分割精度均明显优于SVM和CRF算法,并且对于较难识别的组织,该算法的优势更能得以体现. 相似文献
14.
Liu Hua-yong Zhou Dong-ru School of Computer Wuhan University Wuhan Hubei China 《武汉大学学报:自然科学英文版》2003,8(4):1070-1074
0 IntroductionAsmoreandmorevideolibrariesareavailabletohomesandofficesthroughtheInternet,itbecomesincreasinglyimpor tanttoefficientlymanagethevideocontent,soastoprovidethesupportforotherapplications.Inordertocharacterizethevideocontent,videostructureparsingisrequiredforindexing.Manyliteratureshaveaddressedtheshotboundarydetectiontechniques,suchasRef.[1,2 ].Someresearchershavepresentedsceneseg mentationorextractionalgorithms,forexample ,Ref.[3]pre sentsanovelalgorithmthatusesnumberofinterpol… 相似文献
15.
近年来基于字的词位标注的方法极大地提高了汉语分词的性能,该方法将汉语分词转化为字的词位标注问题,借助于优秀的序列数据标注模型,基于字的词位标注汉语分词方法逐渐成为汉语分词的主要技术路线.针对一些领域文本中含有较多的英文词汇、缩写、数字等非汉字子串,提出了一种基于字和子串联合标注的汉语分词方法,该方法将子串看作和汉字等同的一个整体,采用四词位标注集,使用条件随机场模型深入研究了基于字和子串联合标注的汉语分词技术.在CIPS-SIGHAN2010汉语分词评测所提供的文学、计算机、医药、金融四个领域语料上进行了封闭测试,实验结果表明此方法比传统的字标注分词方法性能更好. 相似文献
16.
针对目前构建新闻脉络链只关注新闻脉络链的主题相似性和文档重要性, 而忽略新闻脉络链逻辑连贯性和可解释性的不足, 以及新闻数据集合指数级增长带来的算法复杂度问题, 从词覆盖的角度提出一种新闻脉络链构建方法, 利用新闻的评论信息来定位新闻事件转折点, 用主题相似与稀疏差异的思想以及RPCA 方法对文档进行逻辑建模, 利用随机游走以及图遍历的方法, 量化并生成可解释且具有很好逻辑连贯性的脉络链。双盲实验表明, 与其他算法相比, 该方法取得较好的效果。 相似文献
17.
Web已经成为人们获取信息的重要来源,但Web上的信息并不都是真实可信的. 因此,如何帮助用户快速判断Web上大量信息的可信性成为一个亟待解决的问题. 文中提出一种基于内容信任的方法用以验证Web信息的可信程度. 采用条件随机场模型进行Web信息的主题提取,利用提取的主题在Web上搜集候选证据,并利用时效性、主题相关度等特征验证候选证据的可靠性,最后进行可信度计算. 实验结果表明提出的方法对评价Web信息的内容可信度是有效可行的. 相似文献