共查询到20条相似文献,搜索用时 140 毫秒
1.
在Hiroshi Yabe等提出的新拟牛顿方程基础上,给出一类新拟牛顿算法(称为MBFGS算法),同时在一定的假设条件下,结合Wolfe搜索准则,证明了MBFGS算法具有全局收敛性,并进行了数值试验,结果表明,对于一般的无约束优化,本文的MBFGS算法是正确和有效的. 相似文献
2.
构造了一个求解无约束优化问题的新算法,结合了采用修正BFGS(MBFGS)算法的信赖域思想和多维过滤器算法策略.搜索方向的产生类似于MBFGS算法;在接受新的迭代点时,采用多维过滤器算法的策略及信赖域思想,新信赖域算法是全局收敛的. 相似文献
3.
在MBFGS方法以及一种非单调的搜索技术的基础上,提出了一种非单调BFGS信赖域方法.相对于单调的BFGS信赖域方法而言,该算法采用了非单调技术,使得信赖域子问题的求解更加容易.此外,在一定的假设条件下,证明了算法的全局收敛性.进一步的数值实验验证了算法的有效性. 相似文献
4.
在MBFGS方法以及一种非单调的搜索技术的基础上,提出了一种非单调BFGS信赖域方法.相对于单调的BFGS信赖域方法而言,该算法采用了非单调技术,使得信赖域子问题的求解更加容易.此外,在一定的假设条件下,证明了算法的全局收敛性.进一步的数值实验验证了算法的有效性. 相似文献
5.
针对织物动画模拟中的实时性问题,采用质点-弹簧模型来描述整个织物运动系统,并提出了MDFP和MBFGS两种新的基于拟牛顿的实时数值解法用于织物动画的实时模拟.为保证收敛速度,给出一个选择策略,根据实时状态对两种算法进行自动选择.实验表明,本文算法在收敛速度和整体性能上均优于已有算法. 相似文献
6.
7.
一类数值积分的中点公式及其误差分析 总被引:1,自引:0,他引:1
对一类数值积分的中点公式进行校正,并建立了复化的中点公式和复化的校正中点公式.对各个公式的截断误差和收敛性进行分析,实例表明,该算法在精度上明显优于原有公式. 相似文献
8.
在引入量化单一带标公式的概念后,给出其消解算法,并证明该消解算法是健全的和拒绝性完备的。因此该算法可用于对量化单一带标公式进行理论上的研究,同时也可用于在实际应用中解决这类公式的可满足性问题。最后,根据消解算法,得出一个可以在多项式时间内判定可满足性的量化单一带标公式的子类。 相似文献
9.
10.
从Romberg算法的来源Euler—Maclaurin公式入手,对不满足Romberg算法使用条件的若干被积函数,根据Richardson外推方法推导出新的积分公式,经数值试验验证,该公式有良好的计算效果。 相似文献
11.
本修正了鞍点逼近算法,给出一个求线性规划最优解的迭代方法和具体实现;还证明了该算法的总体收敛性,其证明方法对一般迭代算法的收敛性讨论具有参考价值。 相似文献
12.
文章给出了一个改进的共轭梯度公式及新公式的相关性质,新公式和DY公式结合得到一个混合共轭梯度法,新算法在Wolf线搜索下产生一个下降方向;并证明了算法的全局收敛性,给出了数值例子. 相似文献
13.
研究成组技术中加工中心的组成问题。在满足各中心机器间相似系数最大的情况下,寻求最优组成方案。针对人工蜂群算法搜索缓慢、易出现早熟等问题,提出了一种模糊人工蜂群算法。该算法采用模糊位置矩阵表示问题的解,重新定义了候选解产生公式,并设计了新的选择概率公式。建立了模糊位置矩阵与问题可行解的映射关系。仿真结果表明,该算法是可行、有效的。 相似文献
14.
张保祥 《长春师范学院学报》2006,(10)
基于Newton迭代法对于求重根具有线性收敛性,给出了加速其收敛的方法以及迭代公式,收敛速度得到了有效的提高。最后从数值实验加以比较,此算法是可行的。 相似文献
15.
16.
给出修正的DY公式,并且将其应用到无约束优化中,得到一类新的共轭梯度(型)算法,新的公式不需要任何线搜索可以保持充分下降性,此外,我们证明了算法的全局收敛性。 相似文献
17.
张保祥 《长春师范学院学报》2006,25(5):10-12
基于Newton迭代法对于求重根具有线性收敛性,给出了加速其收敛的方法以及迭代公式,收敛速度得到了有效的提高.最后从数值实验加以比较,此算法是可行的. 相似文献
18.
一种新型遗传算法及其在暴雨强度公式参数优化中的应用研究 总被引:5,自引:0,他引:5
提出了一种新的遗传算法,该方法不仅能加快普通遗传算法的收敛速度,而且能有效保证种群的多样性.将这种算法应用于暴雨强度公式参数的优化,实例计算表明,该算法是有效和可行的. 相似文献
19.
给出修正的HS公式,并且将其应用到无约束优化中,得到一类新的共轭梯度(型)算法,新的公式不需要任何线搜索可以保持充分下降性.此外,证明了算法的全局收敛性. 相似文献
20.
针对模糊神经Petri网(fuzzy neural Petri net,FNPN)学习算法计算精度低、收敛性差及训练过程中网络震荡较大的问题,提出一种优化的FNPN算法.本算法采用两种S型连续函数分别表示变迁使能及变迁点燃后的新标记值,并在传统参数修正公式的基础上考虑修正前的数值进而增加新型的动量项,从而改善网络的收敛性.本文证明了优化后的参数修正算法可以保证FNPN网络的收敛性. 相似文献