首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
基于模糊Petri网的汽车故障诊断方法   总被引:1,自引:0,他引:1  
根据汽车故障特征的提取具有模糊性和并发性的特点,提出了一种新的基于数据表结构的模糊Petri网模型,并给出了相应的并行推理算法.该模型使用模糊Petri网表示汽车故障的知识,并进行故障的推理和诊断,有效地解决了汽车故障检测系统的并行推理问题,并降低了模糊推理方法的复杂性.最后通过汽车故障实例检验了模型的正确性和有效性.  相似文献   

2.
在分析现有并行推理架构的基础上,设计了一种改进的层连分级式并行推理架构(CPIFH)。该并行推理架构分为多个级别,按层次互相连接。通过减少并行推理架构中主机的工作量,进一步提高了并行推理的效率。从最后的比较结果可以看出,层连分级式并行推理架构能更好的提高并行推理的速度,增加并行推理运行的效率。对于并行推理而言,这种分级式的架构具有一定的应用潜力。  相似文献   

3.
本讨论了规则Petri网的可交换性,给出了规则Petri网的三种推理策略以及并行推理和冲突仲裁的推理方法。  相似文献   

4.
针对分布式随机迭代系统的特点,运用离散随机大系统的稳定性分析方法,提出一种易于作自动推理的分布式随机迭代系统稳定性并行分析法;解决了具有分布结构的随机迭代系统中出现的Lyapunov方程的高效并行算法问题.  相似文献   

5.
针对Gdel语言成分复杂,难以采用Prolog语言的并行推理策略,给出了基于该语言程序中间代码的并行推理模型,并对该并行模型的加速效果进行了分析,结果表明新提出的Gdel并行策略具有良好的加速比.  相似文献   

6.
提出一种面向大规模数据的特征趋势推理算法. 首先, 采用Hash函数抽取大规模数据样本, 使用Pam聚类算法和并行K means聚类算法对大规模数据样本进行聚类, 获取最佳聚类结果后, 提取大规模数据聚类的动态特征; 其次, 采用基于特征趋势规则的推理算法, 构建大规模数据特征的趋势规则推理模型, 并通过累计趋势规则方法设计趋势规则算法, 推理大规模数据特征趋势, 解决了推理结果误差较大的问题. 实验结果表明, 该算法对大规模数据特征趋势推理的准确率均值为98.10%, 推理速度增长率为50%, 推理耗时最大均值仅为114.25 s, 能快速准确地完成数据特征趋势推理.  相似文献   

7.
针对传统电机调整设计专家系统的缺陷,提出一种新型的,基于神经网络推理机制的电机调整设计专家系统模型.该模型将神经网络技术与专家系统技术、优化技术紧密结合,采用并行推理策略,能够有效提高推理效率,解决调整设计过程中调整力度难以确定的问题.  相似文献   

8.
提出了一种对复杂装备进行故障诊断的加权模糊Petri网模型,并对于装备故障传播的逻辑关系进行了描述。然后,根据实际的故障诊断中的不确定推理问题,给出了一种新的加权模糊推理算法,以更加符合工程实际。为提高诊断时的并行推理能力,给出了诊断推理的形式化算法。用实际的诊断案例说明了该方法的有效性。  相似文献   

9.
当前,基于数字电路的脉冲神经网络硬件设计,在学习功能方面的突触并行性不高,导致硬件整体延时较大,在一定程度上限制了脉冲神经网络模型在线学习的速度。针对上述问题,文中提出了一种基于FPGA并行加速的高效脉冲神经网络在线学习硬件结构,通过神经元和突触的双并行设计对模型的训练与推理过程进行加速。首先,设计具有并行脉冲传递功能和并行脉冲时间依赖可塑性学习功能的突触结构;然后,搭建输入编码层和赢家通吃结构的学习层,并优化赢家通吃网络的侧向抑制的实现,形成规模为784~400的脉冲神经网络模型。实验结果表明:在MNIST数据集上,使用该硬件结构的脉冲神经网络模型训练一幅图像需要的时间为1.61 ms、能耗约为3.18 mJ,推理一幅图像需要的时间为1.19 ms、能耗约为2.37 mJ,识别MNIST测试集样本的准确率可达87.51%;在文中设计的硬件框架下,突触并行结构能使训练速度提升38%以上,硬件能耗降低约24.1%,有助于促进边缘智能计算设备及技术的发展。  相似文献   

10.
本文介绍利用人工智能技术,并结合机械设计的特点构造了一种基于黑板结构的目标级推理模式.用黑板结构描述任务求解状态,每一个任务完成一定的功能,并根据当前黑板状态确定下一步应执行的任务.黑板结构的任务规划模式用框架来表示.框架结构中记录了该任务采用的控制策略,知识源和控制方向等信息,保证了控制推理的灵活性.本文还描述了基于黑板结构的目标级推理在装载机工作装置设计专家系统中的应用.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号