全文获取类型
收费全文 | 9144篇 |
免费 | 558篇 |
国内免费 | 467篇 |
专业分类
系统科学 | 769篇 |
丛书文集 | 320篇 |
教育与普及 | 224篇 |
理论与方法论 | 100篇 |
现状及发展 | 48篇 |
综合类 | 8708篇 |
出版年
2024年 | 21篇 |
2023年 | 254篇 |
2022年 | 281篇 |
2021年 | 246篇 |
2020年 | 270篇 |
2019年 | 275篇 |
2018年 | 142篇 |
2017年 | 201篇 |
2016年 | 227篇 |
2015年 | 280篇 |
2014年 | 531篇 |
2013年 | 492篇 |
2012年 | 471篇 |
2011年 | 579篇 |
2010年 | 543篇 |
2009年 | 632篇 |
2008年 | 697篇 |
2007年 | 583篇 |
2006年 | 463篇 |
2005年 | 448篇 |
2004年 | 359篇 |
2003年 | 317篇 |
2002年 | 284篇 |
2001年 | 285篇 |
2000年 | 211篇 |
1999年 | 161篇 |
1998年 | 158篇 |
1997年 | 142篇 |
1996年 | 134篇 |
1995年 | 91篇 |
1994年 | 82篇 |
1993年 | 78篇 |
1992年 | 50篇 |
1991年 | 38篇 |
1990年 | 51篇 |
1989年 | 35篇 |
1988年 | 26篇 |
1987年 | 22篇 |
1986年 | 5篇 |
1985年 | 3篇 |
1980年 | 1篇 |
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
1.
情绪识别作为计算机视觉的一项基本课题已经取得很大进展,然而在无约束自然场景中的情绪识别仍具挑战性.现有方法主要是利用人脸、姿态以及场景信息识别情绪,但是忽略了人物个体在场景中的不确定性,以及不能很好地挖掘场景中的情绪线索.针对现有研究存在的问题,提出了基于人物与场景线索的双分支网络结构,两个分支独立学习,通过早期融合得到情绪分类结果.对于人物在场景中的不确定性,引入身体注意力机制预判人物情绪置信度进而获得人体的特征表示,场景中引入空间注意力机制和特征金字塔以便充分获得场景中不同粒度的情绪线索.实验结果表明,此方法有效融合人物与场景信息,在EMOTIC数据集下能够明显提高情绪识别率. 相似文献
2.
针对现有识别算法中的核函数不能充分利用直方图的整体特征和不同维特征间的内在联系,提出基于度量核和广义直方图交叉(generalized histogram intersection,简称GHI)核混合的植物叶片识别算法.首先,构建多尺度边缘轮廓(multi-scale marginal contour,简称MMC)算子;其次,提取预处理后的叶片图像MMC形状特征、局部二值模式(local binary pattern,简称LBP)空域纹理特征、局部向量化(local phase quantization,简称LPQ)频域纹理特征,进而将这些特征拼接成复合特征;再次,利用度量学习和马氏距离改造负距离核构建度量核,将其与GHI核加权融合形成组合核;最后,进行仿真实验.仿真实验结果表明:相对于现有算法,该文算法对不同种类的植物叶片具有较高的识别率. 相似文献
3.
为准确识别与提取水文时间序列中的显著周期成分,本文借鉴AIC准则的思想,提出了一种以相关系数作为拟合精度指标、以信息熵形式的函数式作为不确定性度量指标的周期显著性评价准则——RICp.以包含多个周期成分的模拟序列进行统计实验,对比不加入RICp准则的MCCP(moving correlation coefficient-based method for periodicity)方法、仅基于假设检验的HAM(harmonic analysis method)方法与通过熵谱峰值点选取显著周期的MESA(maximum entropy spectral analysis method)方法,从周期规律的完整性以及周期结果的准确性两个方面进行评价.分析结果表明, HAM方法和MCCP方法会给出较多的伪周期成分, MESA方法的识别结果会忽略位于峰值附近的次显著周期,基于RICp准则的周期分析方法在4种方法中表现最好.基于RICp准则的周期分析方法的优势在于,可以同时满足显著周期判断、周期显著性分级与周期成分... 相似文献
4.
为了实现农田残膜的精准捡拾,提高残膜回收机的回收率.将改进Faster R-CNN卷积神经网络运用到农田残膜的识别检测中,提出了一种农田残膜的识别方法.以11MS-1850残膜回收机工作后遗留在农田表面的残膜为研究对象,分别在晴天、阴天不同时间段采集图像共计1648幅.通过更改图像亮度、旋转等方式扩充数据集,最终得到4950幅残膜样本图像,按照7:2:1划分为训练集(3465幅)、验证集(990幅)、测试集(495幅);采用双阈值算法替代传统的单阈值算法,降低了阈值对模型性能的影响;通过对比试验,选取具有残差网络结构的ResNet50作为主干特征提取网络,准确率可达88.84%,召回率为87.70%,总体精度为88.27%;为了使检测模型对小目标更加灵敏,根据数据集中残膜尺寸大小,在原有锚点基础上增加322和642的尺度参数,准确率、召回率、总体精度分别提升了1.29%、0.67%、0.97%,单幅检测时间为284.13 ms,基本满足了识别残膜的要求.可为残膜回收机加装补收装置提供参考,为研制人工智能残膜回收机提供理论基础. 相似文献
5.
基于分子对接方法,使用AutoDock软件计算手性共价有机框架材料CCOF5与手性对映体相互作用的结合能。计算结果表明:CCOF5与对映体的结合能差大小与对映体分离度大小相一致;CCOF5与对映体的结合能大小与对映体出峰时间顺序基本一致。采用Avogadro软件对AutoDock分子对接构象进行分析,并对手性识别机理进行探讨。 相似文献
6.
负荷识别是分析用户用电行为的主要工具之一.提高负荷识别的精度对于开展用能监测服务、实现节能降损具有重要意义.提出了一种基于双通道多特征融合的电力负荷智能感知方法.首先,从电器设备的基本属性出发,分析了电流、谐波、功率等数值特征以及电压-电流(V-I)轨迹图像特征对负荷识别的影响;其次,考虑了特征之间的互补性,分别采用主成分分析-神经网络(principal component analysis-back propagation,PCA-BP)算法和卷积神经网络算法将数值特征和图像特征以不同通道在高维空间进行深度融合;最后,采用Softmax分类算法对融合后的高级特征和设备标签进行有监督的学习,从而实现了不同类别电器设备的有效辨识.算例测试结果显示,所提出方法的负荷识别准确率高达94.55%.该结果充分说明了将多种特征进行高维空间融合,可以更全面、立体地反映设备的本质属性,提高算法的识别精度. 相似文献
7.
首先, 在句子组织信息之间的结合度及基于规则、 词性和词序对句法分析系统影响的基础上, 提出一种基于规则的语句分析识别算法, 能在大量文本中快速识别出正确句式; 其次,在基于语句分析识别算法的基础上, 提出一种基于规则与句法合成的层次化语句分析识别算法, 以提高层次化句式识别检错的精度. 实验结果表明, 该算法平均精确率和平均召回率分别为84.65%和77.15%, 相比于只基于规则的语句识别算法分别提高了11.79%和14.48%, 证明了规则与句法合成的层次化语句分析识别的可行性. 相似文献
8.
针对深海光线分布不均匀导致鱼类识别检测困难的问题,提出了符合视觉认知的多维度深海鱼类识别算法.该方法从时间维度优化传统的高斯混合模型(GMM)初步确定变化区域,从空间维度构建目标特征,完整提取运动目标,从时空关联维度建立深度学习的鱼类识别框架,试验结果表明:本算法可在多种复杂条件下准确提取运动目标,面积交迭度(AOM)达到80%以上,优于当前主流算法. 相似文献
9.
针对句法分析中细粒度和粗粒度组块识别模型的冲突问题, 为解决句法分析中词语搭配规则多、减少搭配优先级变动的影响, 提出一种结合条件随机场(CRF)和多元规则的层次化句法分析模型. 先利用CRF算法识别细粒度语句的组块标记序列, 然后结合统计和多元规则识别粗粒度组块, 在识别出的组块中层层引入不同优先级的二元、三元规则. 该模型实现了同时进行细粒度和粗粒度组块的识别, 可更好地服务于句法分析. 在Chinese TreeBank8.0(CTB8.0)语料上采用5-折交叉验证, 结果表明, 相比于仅使用二元、 三元规则及使用CRF+二元规则的句法分析, 该模型的正确率分别约提高12%,3%,5%, 验证了该模型有效性和稳定性. 相似文献
10.
针对低信噪比时莱斯信道下特征提取准确性难以保证、识别准确率偏低等问题, 提出一种基于Choi-Williams分布(Choi-Williams distribution, CWD)和深度残差收缩网络(deep residual shrinkage network, DRSN)的通信辐射源信号调制方式识别方法。利用CWD将时域复信号转换为二维时频矩阵, 对深度残差网络添加软阈值化得到DRSN, 将时频矩阵样本用于对DRSN的训练, 最终构建不同信噪比下的调制方式识别网络。仿真实验表明, 基于RadioML2016.10a数据集, 利用部分先验信息的情况下, 该分类识别方法具有较高的识别准确率和噪声鲁棒性。在0 dB时, 对11类信号的总体识别准确率达到了89.95%;在2 dB以上时, 总体识别准确率均超过91%, 优于其他深度学习识别方法。 相似文献