排序方式: 共有3条查询结果,搜索用时 0 毫秒
1
1.
预训练语言模型能够表达句子丰富的句法和语法信息,并且能够对词的多义性建模,在自然语言处理中有着广泛的应用,BERT(bidirectional encoder representations from transformers)预训练语言模型是其中之一。在基于BERT微调的命名实体识别方法中,存在的问题是训练参数过多,训练时间过长。针对这个问题提出了基于BERT-IDCNN-CRF(BERT-iterated dilated convolutional neural network-conditional random field)的中文命名实体识别方法,该方法通过BERT预训练语言模型得到字的上下文表示,再将字向量序列输入IDCNN-CRF模型中进行训练,训练过程中保持BERT参数不变,只训练IDCNN-CRF部分,在保持多义性的同时减少了训练参数。实验表明,该模型在MSRA语料上F1值能够达到94.41%,在中文命名实体任务上优于目前最好的Lattice-LSTM模型,提高了1.23%;与基于BERT微调的方法相比,该方法的F1值略低但是训练时间大幅度缩短。将该模型应用于信息安全、电网电磁环境舆情等领域的敏感实体识别,速度更快,响应更及时。 相似文献
2.
3.
针对标准粒子群算法存在容易早熟及陷入局部最优等缺陷,提出了一种基于维度近邻关系扩散的改进粒子群优化算法.改进后的算法初始化时借鉴k-means对空间中粒子的维度进行聚类,聚类的标准为每个维度之间的欧氏距离,算法中将聚类得到的每个起始类视为一个家庭.家庭内部和外部分别进行迭代更新,结合智能单粒子优化算法的思想将粒子的更新速度划分为对应的家庭速度子矢量.粒子间交换记录的扩散和传播借鉴在线社会网络传播模型,在采纳信息的过程中不仅会考虑信息的价值,也会考虑其周围粒子状况.结合禁忌搜索优化算法,通过将该算法中的建立禁忌表、设定禁忌搜索长度和特赦准则等策略来避免重复搜索和改进算法的全局搜索性能,提高解的精确性.实验结果表明,改进后的算法有效解决了算法收敛速度慢、求解精度低等问题. 相似文献
1