首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1759篇
  免费   101篇
  国内免费   156篇
系统科学   160篇
丛书文集   63篇
教育与普及   4篇
理论与方法论   4篇
现状及发展   8篇
综合类   1777篇
  2024年   13篇
  2023年   30篇
  2022年   60篇
  2021年   56篇
  2020年   44篇
  2019年   47篇
  2018年   40篇
  2017年   51篇
  2016年   49篇
  2015年   59篇
  2014年   108篇
  2013年   100篇
  2012年   129篇
  2011年   123篇
  2010年   108篇
  2009年   98篇
  2008年   96篇
  2007年   146篇
  2006年   117篇
  2005年   113篇
  2004年   106篇
  2003年   79篇
  2002年   62篇
  2001年   42篇
  2000年   29篇
  1999年   23篇
  1998年   20篇
  1997年   21篇
  1996年   8篇
  1995年   6篇
  1994年   8篇
  1993年   6篇
  1992年   2篇
  1991年   6篇
  1990年   4篇
  1988年   1篇
  1987年   2篇
  1985年   1篇
  1955年   3篇
排序方式: 共有2016条查询结果,搜索用时 31 毫秒
51.
针对粘连白细胞很难精准分割的问题,提出一种基于深度学习的粘连白细胞分割算法.首先,将急性淋巴细胞白血病患者的血液细胞显微图像的色彩空间由RGB转换至HSV,滤除红细胞并提取白细胞;其次,对提取结果中的粘连白细胞,将细胞边界设定为除前景和背景外的第三类,在深度学习分割模型训练过程中引入基于类别权重的加权交叉熵损失函数,使...  相似文献   
52.
文本分类(Text Categorization,TC)指的是把一个自然语言文本,根据其主题归入到预先定义好的类别中的过程.文本分类是自然语言处理的一个基础性工作,也是近年来人们研究的热点话题.针对朴素贝叶斯算法在小样本集分类效果不高的原因进行了分析,对其进行了改进和调整,提出了基于改进的朴素贝叶斯文本分类方法,试验结果表明,该方法取得了更好的效果.  相似文献   
53.
对身份证识别系统中的字符分割技术进行了深入的研究,阐述了倾斜校正、行切割、小波降噪、单字符分割等算法,实验证明,该方法对退化的身份证图像具有很好的字符分割能力.  相似文献   
54.
基于SVM的虚拟人彩色切片图像自动分割   总被引:2,自引:0,他引:2  
为实现对数字虚拟人彩色连续切片的自动分割,提出了一种基于支持向量机的自动分割方法.该方法首先利用虚拟人连续切片图像间在颜色、纹理等特征的相似性,使用支持向量机分类方法对相邻图像进行分割.在分割结果达不到预定允许最小相似度条件或一次训练结果用于连续分割切片次数达到给定的最大允许次数时,则再利用相邻切片在空间上的相似性,自动对当前切片进行重新采样,然后继续训练、分割.使用虚拟中国人女性一号(VCH-F1)数据集中切片图像进行实验,对比研究了允许的最小相似度测度及允许最大连续分割次数对分割质量和分割时间的影响,并给出了受噪声污染图像的自动分割结果.该方法能有效实现对虚拟人连续切片图像的自动分割,能在保证一定分割质量的同时,兼顾分割速度,并能较好地克服噪声影响.  相似文献   
55.
基于图像分割的SAR图像匹配方法   总被引:1,自引:0,他引:1  
针对单一背景的海岛合成孔径雷达(SAR)图像,提出一种基于图像分割的图像匹配方法.该方法采用静态小波对原实时图分解滤波,抑制噪声;利用最大类间方差阈值法分割图像,分割出特定目标;选择结构元素进行形态腐蚀和膨胀,去掉细小背景杂波干扰;对二值化的图像进行面积统计,搜索出面积最大的目标.在原实时图中,以最大面积目标的外切矩形裁剪图像作为新的实时图.实践证明,利用裁剪的新实时图进行匹配,可以有效去除背景对匹配的不利影响,弥补了传统方法匹配精度低、实时性差的缺点.  相似文献   
56.
为了解决传统的暗通道先验去雾方法产生的细节丢失和亮度偏低等问题,本研究提出了一种基于图像分割和融合的去雾算法。首先对输入图像使用亮度反转的MSRCR预处理来进行色彩保真;其次用阈值分割法提取图像的特征信息并获得掩膜,根据特征信息设计自适应的Gamma校正方法,提升对比度和亮度,并使用暗通道先验方法保持去雾后的细节;最后将处理后的图像进行掩膜融合。在真实世界的数据集上仿真结果表明,本研究所提算法在去雾后能保留更多的细节且提高亮度。与几种经典的算法相比,本研究所提算法在去雾后的图像有较好的色彩保真度,保留了更多的细节,去雾效果好且亮度更自然。  相似文献   
57.
汉语自动分词中中文地名识别   总被引:6,自引:0,他引:6  
以词语级的中文地名为识别对象,根据地名内部用字的统计信息和地名构成特点产生潜在地名.在汉语自动分词中将可信度较高的潜在地名等同于句子的候选切分词,利用候选切分词本身的可信度和上下文接续关系评价句子的各种切分方案.在确定句子最佳切分时识别句子中的中文地名.对真实语料进行封闭和开放测试,封闭测试结果为召回率93.55%,精确率94.14%,F-1值93.85%;开放测试结果为召回率91.27%,精确率73.48%,F-1值81.42%.取得了比较令人满意的结果.  相似文献   
58.
滑降算法是一种重要的图像分割工具,然而基于滑降算法的图像分割在很大程度上依赖于待分割图像梯度的计算.提出了一种多尺度形态学梯度滑降分割算法.该算法首先利用多尺度形态学梯度,通过大小不同的结构元素提取图像梯度特征,获得梯度图像,然后利用滑降算法进行图像分割,为了减少滑降算法的过分割现象,提出了区域面积和区域相似性规则的区域合并的方法.实验结果表明,本方法具有较好的分割效果,同时分割中结构元形状、尺度可以灵活选取,使得该方法适用范围相对比较广泛.  相似文献   
59.
为进一步提高分割精度并加快分割速度,提出了一种基于邻域搜索可选外部存档自适应差分进行算法(简称为JADE-GL)的二维Otsu多阈值图像分割方案。首先,针对原始JADE算法精英突变策略收敛速度慢、容易陷入局部最优等问题,提出了基于邻域半径搜索的改进突变策略,以提升算法的全局探索和开发能力。然后,将所提算法与现有分割方法以及其他JADE变种算法进行二维Otsu多阈值分割对比实验。最后,通过函数收敛曲线、分割距离测度、峰值信噪比(peak signal to noise ratio, PSNR)等指标定量分析算法的性能。实验结果表明,随着阈值数增加,提出的算法无论在收敛速度、分割精度还是分割图像效果上都有显著提升。  相似文献   
60.
为了提高核磁共振(MR)图像分割的效果,提出了一种基于Markov随机场模型的分割方法。该方法利用Markov随机场描述图像的先验分布,结合MAP准则获得分割优化函数,通过ICM局部迭代使分割优化函数收敛。迭代过程中引入了后验概率矩阵的平滑;提高了分割的精度和速度。实测数据的实验结果证明了所提方法的有效性。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号