首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   6篇
  免费   0篇
  国内免费   1篇
系统科学   6篇
综合类   1篇
  2010年   1篇
  2008年   1篇
  2006年   2篇
  2000年   1篇
  1998年   1篇
  1992年   1篇
排序方式: 共有7条查询结果,搜索用时 0 毫秒
1
1.
应用微波局部加热男性睾丸以抑制精子的生成,从而获得一种可复性男性避孕方法已研究了多年.试图从理论上求解出在微波圆柱腔内男性睾丸内部的场分布,会遇到极大的困难.这主要是由于边界条件和腔内有载时驻波分布均十分复杂的缘故.用模型实验研究是一个简易实用的方法,文[5,6]报道了在外场照射下男性睾丸模型内部的受热分布情况,这里进一步给出在微波圆柱腔内睾丸模型的受热分布,以便对今后临床应用提供参考数据.  相似文献   
2.
基于分布式并行计算的神经网络算法   总被引:1,自引:0,他引:1  
为了提高计算性能(速度与可扩展性),提出了一种新颖的神经网络的并行计算体系结构和计算网络权函数的训练算法。权函数是广义Chebyshev多项式和线性函数的复合函数,只需要通过代数计算就可以求得,不需要梯度下降计算或者矩阵计算。各个权函数能够独立求解,可以通过并行系统采用并行算法计算。算法可以求得全局最优点,得到反映网络误差的一个有用的表达式。此外,算法在不超过权函数总数的范围内,还具有维持加速比与并行系统中提供的处理器的数量成线性增长的能力。仿真实验结果表明,本文算法的计算性能远远优于传统算法。  相似文献   
3.
基于广义ЧебыЩев多项式的新型神经网络算法   总被引:1,自引:1,他引:0  
提出了一种基于广义ЧебыЩев多项式的新型神经网络学习算法.对于给定的样本点,采用三次样条插值方法求得ЧебыЩев结点处的函数值,并将ЧебыЩев结点和对应的函数值作为新的训练样本.利用ЧебыЩев多项式的正交性,每个权函数可以表示为广义ЧебыЩев多项式,它是最佳平方逼近多项式.与样条权函数神经网络算法相比,该算法最后表达式更简单,有利于泛化,而且每个权函数所需要存储的信息量更少.另外,提出的新算法不存在梯度下降类算法的局部极小、收敛速度慢的问题.最后,为了说明该算法的有效性,给出了一个实例,仿真实验说明通过提取广义ЧебыЩев多项式的权函数,可以理解所训练的问题的内在关系,训练后的网络具有很好的泛化能力和很高的精度.  相似文献   
4.
样条权函数神经网络的一种新型算法   总被引:6,自引:0,他引:6  
针对前馈神经网络在数值插值领域的应用场合,提出了一种新型结构的神经网络及其训练算法。网络拓扑结构简单,网络训练所需的神经元个数与样本个数无关,可以简单地表示成输入、输出样本向量维数之积。算法只需训练1层权函数。训练后的权函数由三次样条函数构成,而不是传统方法(反向误差传播算法“BP”或径向基函数算法“RBF”)的常数。通过求解两组线性方程组,就可以确定具体三次样条权函数形式。不存在传统梯度下降类算法的局部极小、收敛速度慢、初值敏感性等问题。仿真实验说明此算法比传统算法(如BP、RBF)精度高、速度快。  相似文献   
5.
提出了一种复三层前馈网络的新型学习算法。该算法采用的是分层优化方法 ,将隐层的非线性神经元线性化 ,线性化产生的误差通过罚项受到限制。分层优化使得每一层权值整体优化 ,而与另一层无关 ,这样使得整个优化过程更有效。  相似文献   
6.
为了改善学习速率,提出了一种确定复数神经网络初始权值的新颖方法。初始权值不是随机给定的,而是通过计算求得。具体方法是选择一类隐层神经元的变换函数(类支集函数),将输入层和隐层之间的复数权值计算出来,保证隐层的输出矩阵是满秩矩阵,并从理论上证明了这样的满秩矩阵是存在的。利用这个满秩矩阵,通过最小平方算法就可以求得隐层和输出层之间的复数权值。将这些权值作为初始权值,采用最速下降算法来对神经网络进行训练。初始权值的优化,使得该算法可以有效地提高复数神经网络的训练速度和计算精度。一个特例是当隐层神经元的个数与样本个数相等时,就可以求得代价函数值为0的全局最小点。计算机仿真实例验证了该算法的有效性。  相似文献   
7.
一种新型δ函数神经元构成的神经网络及学习算法   总被引:4,自引:0,他引:4  
本文提出一种新型δ函数神经元构成的三层前馈神经网络,其隐层中神经元采用δ变换函数而不是sigmoid函数。学习算法不再采用误差反向传播(BP)算法,而是通过选定隐层与输入层之间的自由权来确定隐层与输出层间的待求权的直接算法完成学习。这种学习算法运算速度快,不存在局部极小和收敛速度慢的问题,只要隐层δ函数神经元个数等于样本对数量就一定能完成学习,这是传统BP算法不能比拟的。计算机仿真实例表明该算法是十分有效的。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号