首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 312 毫秒
1.
杨智  马少仙 《甘肃科技》2012,28(18):116-117
利用有限理性条件下进化博弈理论的方法,研究了电力市场中发电厂商报价行为的稳定均衡问题。通过建立发电企业竞价的进化博弈模型,分析了企业的收益对其报价行为的影响。分析表明,只有通过制定合理的市场机制,使发电企业利益分配公平,才能使我国电力市场尽快达到良性循环的状态。  相似文献   

2.
随着我国电力市场改革的启动和逐步发展完善,在竟价上网的过程中,所有的发电公司都想使自身的收益最大化,而电网公司却想使购电费用最小化,因此发电公司的报价策略显得越来越重要。采用经济学上的古诺模型,用完全信息静态博弈的方法,引入最优化目标函数,分析了发电厂商的最优发电量。  相似文献   

3.
基于Q学习算法的发电公司决策新模型   总被引:2,自引:0,他引:2  
提出了基于Q学习的发电公司决策新模型,应用于求解发电公司在具有不完全信息的电力市场环境下为获取最优长期利润而制定的决策问题.以电力市场重复运行具有的典型Markov过程特性,应用Q学习算法构建以长期利润最优为目标的发电公司决策模型,并通过算例仿真验证了该模型的有效性.所提出的决策新模型可以根据发电公司对市场状态变化的不同预估状态转移概率模拟该公司在市场环境下的不同竞价策略,并给出不确定市场环境下的最优决策.  相似文献   

4.
李猛  孟庆然 《科技资讯》2009,(3):174-174,177
随着电力市场化改革的深入及其市场力评价深层次问题的提出,对发电佣电力市场中发电厂商市场力及其对发电厂商竞标策略的影响研究其有重要的研究价值和实践意义。本文在总结国内外市场力研究的基碱上对市场力进行了介绍,重点阐述了电力市场中市场力产生的原因、度量方法和如何有效的抑削市场力等,并且对电力市场力影响发电竞标策略进行了分析研究。  相似文献   

5.
节点电价下输电容量限制与发电厂商市场力的仿真分析   总被引:3,自引:0,他引:3  
通过构造节点电价下电力市场智能代理仿真模型,讨论了节点电价下输电容量限制与发电厂商市场力的相互影响关系.结果表明,在市场环境下,发电厂商的逐利行为会显著改变网络潮流,且输电网络的限制可放大发电厂商的市场力,网公司随着发电厂商市场力的实施而获利,故需要有严格的措施阻止其行为.进一步通过阻塞线路中的相关份额组成分割的市场,分析了输电网容量限制的影响,提出了一种分析发电厂商市场力实施的新方法.  相似文献   

6.
基于智能代理的模拟仿真方法已成为电力市场研究的一种新颖而有效的途径.文中结合某一实际区域电力市场模拟系统的构建,介绍了适合模拟发电厂商报价的智能代理学习算法,详细阐述了VRE learning算法、Q-learning算法以及贪婪算法在模拟系统中的运用及实现框架,并分别探讨了学习算法在代理报价收敛问题上的不同处理方式.算例结果表明,智能代理模型及学习算法能够模拟发电厂商的理性竞价行为.  相似文献   

7.
目前,普遍采用等时间间隔发电计划曲线形成发电计划.然而,非等时间间隔的发电计划能自动跟踪负荷的变化趋势,同等时间间隔发电计划相比,它更适合于制定日前电力市场中确定发电计划.非等时间间隔的发电计划可分两步进行,根据预报的次日负荷曲线制定出包括发电时刻和该时刻的发电量的系统总发电计划曲线,它是非等时间间隔的;再到提前电能市场中拍卖总发电量,形成包括各个发电公司合同发电量的完整发电计划.重点研究了如何利用预报的次日负荷曲线确定出非等时间间隔的发电计划曲线,重点阐述了非等时间间隔发电计划曲线的确定原理、算法框图,并对应用中可能出现的问题进行了讨论,实例验证了这种方法的先进性和经济性。  相似文献   

8.
电力市场机制设计及运行是相当复杂的课题,传统的统计学和理论分析工具均很难精确研究电力市场的经济特性与物理特性。针对此类复杂的社会系统,采用智能代理模型仿真研究是种新颖有效的途径,因而基于智能代理模型的电力市场研究平台随之成为深入分析电力市场的重要工具。一般而言,在电力市场智能代理模型的框架中,代理就是代替发电厂商决策报价的程序模块,为了体现发电厂商报价决策的理性,不同的学习算法被用来构建代理的决策模块。本文着重分析并探讨了电力市场模拟系统中的智能代理模型及其学习算法的运用与实现。通过算例表明,智能代理模型及学习算法在电力市场中的应用具有重要意义。  相似文献   

9.
运用数学模型,对在中国的商业楼字中以清洁发展机制(CDM)的方式导入太阳能发电进行了分析.该模型可以在满足电力供求平衡的前提下确定最佳的导入容量.运用该模型对投资费用和电价进行了参数分析.分析结果表明,在一定的条件下,即使没有CDM的参与,在中国的商业楼字中导入太阳能发电也是可行的.但是,通过CDM项目,可以极大地减小太阳能发电的导入壁垒,CO2的减排收益也可弥补太阳能发电的投资费用,使项目双方都获得相应的利益.  相似文献   

10.
王承民  侯志俭 《上海交通大学学报》2003,37(9):1333-1337,1342
以电力市场的效率最大化为目标,分析了网络阻塞对电力市场均衡的影响,建立了阻塞情况下的新的电力市场均衡模型。该模型在形式上与无阻塞情况下的电力市场均衡模型是一致的,说明阻塞费用的产生是由于阻塞定价的不合理造成的,以等报价原则为基础,以潮流计算为工具进行阻塞调度、定价和费用的分摊,以IEEE-30节点系统为例对所提出的算法进行了验证。结果表明,本文方法可以应用到实际电力市场中。  相似文献   

11.
在电力市场环境下发电公司要竞价上网,其最关心的问题是如何构造最优的报价策略以获取最大利润。研究了联营体模式下输电阻塞对发电商竞价策略和竞价效益的影响,假设已估计出竞争对手的报价行为并以日前交易市场为基础采用节点电价法进行阻塞管理的情况下,建立了求解该问题的双层优化竞价策略模型,并采用遗传算法对其进行求解。最后用修改过的IEEE14节点系统为算例进行分析,结果表明提出的方法可用于指导发电商制定报价策略。  相似文献   

12.
针对分布式电力交易中缺乏有效可靠的交易机制来规范用户信用行为的问题,提出基于区块链和混合连续双向拍卖的电力交易匹配机制。混合连续双向拍卖把信用值引入到用户报价调整中,通过信用值和报价的加权平均值进行连续双向拍卖交易匹配。这种匹配机制能有效减少恶意节点对电力资源分配的影响,从而提高总体收益和用户交易积极性。同时,为了使总体利益最大化,提出基于均衡值的报价策略。然后,借助区块链实现用户间电能数字证明和费用之间的交换。最后,通过分布式电力交易模拟实验证明该交易机制的有效性。  相似文献   

13.
针对解决对传统的多A gen t再励学习算法中,A gen t只能独立学习、不能合作学习的问题和启发式算法中只考虑了单个A gen t而没有推广到多A gen t的情况,给出了对称和非对称环境下的基于启发式的多A gen t再励学习算法。该算法基于A gen t之间的通信来获取其它A gen t的历史信息,以及动作选择策略,结合启发式算法思想,达到A gen t在学习过程中的合作的目的,最终提高学习的效率。以2个A gen t的2个状态3个动作选择为例,表明该算法的收敛速度高于传统分布式再励学习算法的收敛速度。  相似文献   

14.
电价是电力市场中的关键问题之一,理论和实践上存在着多种电价理论和电价计算方法,其中的当量电价理论是一种新颖的电价理论.剖析了当量电价理论的原理与本质,将当量电价理论与其他电价计算方法(统一出清电价法、英国电价法、两部制电价法)进行对比,揭示当量电价法的特点与优势,对当量电价理论进行评价与展望.  相似文献   

15.
基于强化学习,设计了一个面向三维第一人称射击游戏(DOOM)的智能体,该智能体可在游戏环境下移动、射击敌人、收集物品等.本文算法结合深度学习的目标识别算法Faster RCNN与Deep Q-Networks(DQN)算法,可将DQN算法的搜索空间大大减小,从而极大提升本文算法的训练效率.在虚拟游戏平台(ViZDoom)的两个场景下(Defend_the_center和Health_gathering)进行实验,将本文算法与最新的三维射击游戏智能体算法进行比较,结果表明本文算法可以用更少的迭代次数实现更优的训练结果.  相似文献   

16.
基于配电零售市场开放后的电力用户需求特性为基础,提出了发电批发市场和配电零售市场并存后的联合均衡模型,用于分析零售市场开放对实时现货市场的影响.根据电力负荷特点,按高峰、低谷两种方式模拟零售电价与实时电价的关系,给出了零售市场完全竞争机制和部分管制机制下发电批发市场和配电零售市场并存后的联合均衡结果.算例验证表明,零售市场的开放将有效减少电力总需求,降低电力现货价格,体现电力需求弹性效应.另外,随着配电零售市场的逐步放开,固定配电价格对实时电价的影响越来越小,而电力需求弹性对实时电价的影响则越来越大.  相似文献   

17.
本文以水电参与的电力市场为研究对象,从水电区别于火电的特殊性出发对市场风险进行分析,包括电价风险、竞价风险、来水不确定性风险、市场力风险等。通过分析,掌握水电厂利益在各种风险下的变化情况,及早采取必要的预防措施和规避措施,尽量避免和减少经济损失对水电来说是尤为重要的。  相似文献   

18.
基于Markov对策和强化学习的多智能体协作研究   总被引:4,自引:0,他引:4  
MAS的协作机制研究,当前比较适用的研究框架是非零和Markov对策及基于Q-算法的强化学习。但实际上在这种框架下的Agent强调独立学习而不考虑其他Agent的行为,故MAS缺乏协作机制。并且,Q-算法要求Agent与环境的交互时具有完备的观察信息,这种情况过于理想化。文中针对以上两个不足,提出了在联合行动和不完备信息下的协调学习。理论分析和仿真实验表明,协调学习算法具有收敛性。  相似文献   

19.
In multiagent reinforcement learning, with different assumptions of the opponents' policies, an agent adopts quite different learning rules, and gets different learning performances. We prove that, in multiagent domains, convergence of the Q values is guaranteed only when an agent behaves optimally and its opponents' strategies satisfy certain conditions, and an agent can get best learning performances when it adopts the same learning algorithm as that of its opponents.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号