首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 109 毫秒
1.
2.
提出了一种求解非线性规划问题的异步并行拟牛顿算法,若假设目标函数是凸的,线性搜索采用Wolfe原则,讨论了所设计的并行算法的全局收敛性。  相似文献   

3.
针对在非线性预测控制中对神经网络预测模型精度和收敛速度的要求,该文提出了一种并行拟牛顿神经网络建模的非线性预测控制算法.该算法中采用一个前向神经网络作为预测模型,网络的训练利用自调节拟牛顿法(SSQN)和BFGS拟牛顿法并行计算Hessian矩阵以及各自的搜索方向,并用最小原理确定出一个最优步长来调节网络各节点之间的权值.通过Matlab仿真证明了该算法的有效性.  相似文献   

4.
拟牛顿算法是无约束优化问题的有效而名的算法,是牛顿法的近似,牛顿算法要求目标函数二次连续可微,Hesse阵非奇异且正定,计算量较大,拟牛顿算法只要求目标函数一次连续可微,以拟牛顿方程为基础来构造算法,易于实现,计算量较小,并形成了完整的算法体系,在理论与应用上都有重要意义,  相似文献   

5.
隐马尔可夫模型(HMM)是建立在马尔可夫链的基础上的统计模型.虽然隐马尔可夫模型是一种计算高效的机器学习模型,但是当处理的数据集规模过于庞大时,分析的时间太长.因此,我们有必要研究隐马尔可夫模型的并行化设计,以提高模型的运算速度.近年来,开放计算语言(OpenCL)的出现,使得设计通用的并行程序成为可能.该文,我们分析了隐马尔可夫模型三类算法的并行特性,并设计基于OpenCL的并行实现.实验结果表明,隐马尔可夫模型在GPU上的并行化实现最高获得了640倍的加速比.  相似文献   

6.
互补问题在实际生活中有着广泛的应用,是当前研究的一个热点问题,从而产生了很多的解决途径.本文利用互补函数将互补问题转化为一个无约束最优化问题,从而构造了一类求解互补问题的广义拟牛顿算法,并从理论上给出了无约束最优化问题的解是原互补问题解的一个充分条件.数值实验表明算法不仅可行而且效果较好.  相似文献   

7.
杨新强 《科技信息》2010,(31):I0053-I0053,I0418
GPU(Graphic Processing Unit),即图形处理器是英伟达公司首先提出来的一个概念。其初始目的是用来进行图形渲染,并不是为了进行通用计算。近年来,图形处理器(GPU)的发展日益成熟,随着CUDA(Compute Unified Device Architecture)构架的推出,GPU的应用范围不在局限于计算机图形学本身,扩展到各个领域。FDTD(Finite Difference Time Domain)的计算过程可以很容易的划分为多个子计算过程,而子计算过程之间同时进行着相似的计算,...  相似文献   

8.
本文讨论极小化由凸泛函和光滑算子复合而成的目标函数的数值方法,给出了旨在求上述问题的一个平稳点的拟牛顿型算法,它将原问题转化为求解一系列约束凸极小化问题的近似解.在适当的条件下算法具有全局收敛性,当目标函数满足增长条件时算法有超线性的敛速.  相似文献   

9.
互补问题在实际生活中有着广泛的应用,是当前研究的一个热点问题,从而产生了很多的解决途径。本文利用互补函数将互补问题转化为一个无约束最优化问题,从而构造了一类求解互补问题的广义拟牛顿算法,并从理论上给出了无约束最优化问题的解是原互补问题解的一个充分条件。数值实验表明算法不仅可行而且效果较好。  相似文献   

10.
对无约束最优化问题,提出了一种修正的广义拟牛顿算法,证明了该算法对非凸函数在Goldstein非精确线搜索下具有全局收敛性.  相似文献   

11.
根据神经网络串行布局算法 ,进一步研究并提出了与布局问题相适应的神经网络并行计算模型及并行布局算法 ,以负载平衡及系统通信开销最小为目标 .理论分析结果表明 ,运用该算法能达到此目标 ,且具有布局质量高、收敛快、计算简单等特点 ,适于神经网络并行布局  相似文献   

12.
基于遗传算法的神经网络学习算法研究   总被引:5,自引:0,他引:5  
为了克服神经网络结构和参数设计的随机性及依赖于人的经验的缺点,提出了一种改进的基于遗传算法的BP神经网络学习算法。该算法结合了神经网络的快速并行性和遗传算法的全局搜索性,首先利用遗传算法对神经网络结构、初始连接权和阈值以及学习率和动量因子进行全面进化设计,在解空间中定位出较好的搜索空间,然后在进化神经网络中用训练样本再次寻优。通过利用该算法对XOR问题求解,证明了该算法的有效性,其收敛速度和精度均优于基本BP算法和附加动量项的BP算法。  相似文献   

13.
针对无约束最优化问题,在已建立的一类新拟牛顿方程的基础上,把满足于传统拟牛顿方程的一类改进BFGS算法推广到新拟牛顿方程,从而得到一类基于新拟牛顿方程的改进BFGS算法.证明该算法在目标函数为一致凸时具有局部超线性收敛性.  相似文献   

14.
相对于先前的并行人工蜂群算法进行了一些改进,主要采用OpenCL本地内存、并行规约等技术,提出了一种基于图形处理器(GPU)改进的并行人工蜂群算法.该算法将采蜜蜂映射为OpenCL一个工作项,跟随蜂采用右邻域优先的局部选择机制.实验结果表明:文中提出的改进并行人工蜂群算法提高了算法的执行效率,收敛速度得到提升.  相似文献   

15.
为提高多层前向神经网络的学习速度和算法的稳定性,提出一种基于综合目标函数的改进学习算法.该算法在误差平方和目标函数中引入一个辅助约束项构成综合目标函数,并利用综合目标函数训练网络的输出层权值,采用牛顿法推导出训练输出层权值的递推公式.辅助约束项隐含有对网络输出平滑性的约束,提高了学习算法的稳定性.利用该算法对不同非线性函数生成的样本数据的学习结果表明,新算法的收敛速度、精度均优于Karayiannis等人的二阶学习算法.  相似文献   

16.
在综合分析网络纵向、横向灰色关联分析特点的基础上提出了一种新的基于灰色关联分析的剪枝算法,并将其用于训练高阶神经网络.该算法运用灰色关联分析对比网络各节点输出值序列之间联系的紧密程度,用网络纵向灰色关联分析确定剪枝连接,再用网络横向灰色关联分析确定相应的并枝连接,实现网络结构的动态修剪.训练后的高阶神经网络具有合理的网络拓扑结构和较好的泛化能力.实验验证了该算法的合理性、有效性.  相似文献   

17.
开发了基于图形处理器(GPU)的Cholesky分解并行算法,应用于模态计算程序中,对计算进行加速.算例测试表明该算法相对串行算法计算性能大幅提升,且加速比随矩阵阶数增加而增加,与串行程序相比加速比可达到19.6,此时GPU浮点运算能力达到298Gflops.GPU程序固有频率计算结果与Abaqus计算结果的误差在2%以内,具有足够的计算精度.  相似文献   

18.
用混合遗传算法实现神经网络快速训练   总被引:7,自引:0,他引:7  
快速神经网络训练算法的研究是人们所关注的问题之一。经过分析与研究 ,遗传算法是一种全局并行随机搜索优化算法 ,具有很强的全局搜索能力 ,而 BP算法的局部搜索能力较强。文章将两者结合起来 ,形成一种混合遗传算法 ,并就混合遗传算法的原理及其在实现时所涉及到的许多策略问题进行了分析比较 ,仿真结果表明它具有收敛速度快和不会陷入局部极小的特点。  相似文献   

19.
为降低粒子群优化算法(PSO: Particle Swarm Optimization)时间和空间的复杂度随问题规模的增大而越来越高的问题, 对图形处理器(GPU: Graphic Processing Unit)用于并行计算的方法进行了分析, 利用GPU的并行特性, 实现了粒子群优化算法路径搜索过程的并行化。测试函数实验结果证明, GPU平台较CPU模式下的计算, 其搜索速率有明显提高。  相似文献   

20.
离散Hopfield神经网络的吸引性不仅具有重要理论意义,而且是现代网络应用基础。基于离散Hopfield神经网络,简要讨论了算讨论了其吸引性;并利用其非线性混沌机制和并行计算的特点,提出了数据分组加密算法和公钥加密算法;法的安全性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号