华南理工大学成润婷获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华南理工大学申请的专利基于深度强化学习的低压配电网电压控制方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119813234B 。
龙图腾网通过国家知识产权局官网在2026-04-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510280495.6,技术领域涉及:H02J3/16;该发明授权基于深度强化学习的低压配电网电压控制方法及系统是由成润婷;林楷东;史训涛;刘斯亮;羿应棋;张勇军;赖俊锋设计研发完成,并于2025-03-11向国家知识产权局提交的专利申请。
本基于深度强化学习的低压配电网电压控制方法及系统在说明书摘要公布了:本发明公开了基于深度强化学习的低压配电网电压控制方法及系统,包括以下步骤:将训练好的Transformer‑SAC模型嵌入低压配电网中,使Transformer‑SAC模型与低压配电网的环境交互形成动作策略,动作策略下发至开关或用户侧的智能控制器,用以控制分布电压的功率和无功补偿器的投切,分布式电源设备和无功补偿器接收命令后执行动作,并形成新的环境数据实时反馈给模型进行的自优化。本发明采用SAC算法优化低压配电网的电压控制策略,并通过经验回放和策略优化提升学习效率,将模型与低压配电网环境的交互反馈,智能体不断优化控制策略、调节电网设备,实现电压调节效果的持续提升。
本发明授权基于深度强化学习的低压配电网电压控制方法及系统在权利要求书中公布了:1.基于深度强化学习的低压配电网电压控制方法,其特征在于,包括以下步骤: 将训练好的Transformer-SAC模型嵌入低压配电网的电压控制系统中,使Transformer-SAC模型与低压配电网的环境交互形成动作策略; 动作策略下发至执行设备,用以控制分布电压的功率和无功补偿器的投切数量; 执行设备接收命令后执行动作,低压配电网形成新的状态变量,新的状态变量实时反馈给Transformer-SAC模型进行优化; 所述Transformer-SAC模型与低压配电网的环境交互形成动作策略,包括以下步骤: S1、采用Transformer网络对低压配电网的状态变量提取关联特征矩阵,关联特征矩阵经过Transformer网络处理后输出特征矩阵;具体包括以下步骤: S1.1、提取t时刻的低压配电网的状态变量St中节点电压Vt、有功功率负荷Pt、无功功率负荷Qt、节点电压灵敏度Sent作为关联特征矩阵Xt: 其中,表示N×d维的实数空间,N表示节点数,d为特征数,即d=4; 低压配电网的状态变量St包括:节点电压Vt、有功功率负荷Pt、无功功率负荷Qt、网络拓扑连接矩阵T、节点电压灵敏度Sent以及分布式能源发电功率PDER,t、电容器投切量QCap,t; 其中,节点电压为Vt=[Vt,1,…,Vt,N],单位为标幺值,Vt,N为第N个节点在时刻t的电压值,N表示节点数,每个节点电压折算为标幺值后取值范围为[0.95~1.05]; 有功功率负荷为Pt=[Pt,1,…,Pt,N],单位为千瓦,Pt,N表示第N个节点在时刻t的有功功率负荷;典型的基础负荷范围为[20kW,500kW]; 无功功率负荷为Qt=[Qt,1,…,Qt,N],单位为千伏安,Qt,N表示第N个节点在时刻t的无功功率负荷; 分布式能源发电功率为PDER,t=[PDER,t,1,…,PDER,t,M],单位为千瓦,PDER,t,M表示第M个分布式电源在时刻t的分布式能源发电功率,M为分布式电源数量;分布式能源发电功率范围为[0kW,250kW]; 电容器投切容量为QCap,t=[QCap,t,1,…,QCap,t,l],单位为千伏安,QCap,t,l表示电容器l在时刻t的无功投切量; 网络拓扑矩阵T用于表示节点间的连接关系,矩阵元素Ti,j=1表示节点i与节点j相连,Ti,j=0表示节点i与节点j不相连; 节点之间的连接为基于IEEE33节点低压配电网标准拓扑,网络拓扑矩阵T包含33个节点的连接信息;节点电压灵敏度Sent=[Sent,1,…,Sent,N],Sent,N表示在时刻t第N个节点电压对有功功率变化的灵敏度,由下式计算在时刻t第i个节点电压对有功功率变化的灵敏度Sent,i: 其中,为第i个节点在t和t+1前后时刻的电压标幺值差,为第i个节点在t和t+1前后时刻的有功功率差; S1.2、关联特征矩阵Xt通过多头注意力机制计算每个注意力头的注意力权重: A=XWA,B=XWB,C=XWC; 其中Hf为第f个注意力头权重,f∈F,F为注意力头的数量;A、B、分别表示询矩阵、键矩阵和值矩阵,表示N×dk维的实数空间,dk是每个注意力头的维度,A、B、C由在t时刻的输入特征X线性变换得到,X∈xt;softmax.表示归一化操作;WA、WB、WC是线性变换的权重矩阵,作为Transformer网络训练过程中自适应获取的参数;表示d×dk维的实数空间,d为特征数; S1.3、将所有注意力头的权重拼接得到拼接后的特征矩阵H,并进行线性映射: H=ConcatH1,H2,…,HFWF; 其中,Concat.函数将多个注意力头的输出矩阵沿通道维度横向拼接,形成完整的拼接特征矩阵H,F为注意力头的总数量,HF为第F个注意力头,WF是注意力头的输出权重矩阵,拼接特征矩阵H与输入的关联特征矩阵Xt相加以实现残差连接,再通过归一化进行处理: H′=LayerNormH+Xt; 其中LayerNorm·为归一化操作;H′表示归一化后的特征矩阵; S1.4、将归一化后的特征矩阵H′通过前馈神经网络: H″=ReLUH′W1+b1; Xt′=H″W2+b2; 其中,H″为H′经过残差连接处理的特征矩阵,X′t为前馈神经网络处理后输出的矩阵,分别为前馈网络不同层的权重矩阵,dff为前馈网络的中间层维度,dffd;是前馈网络第一层、大小为dff的偏置向量,作用是加到第一层的线性变换结果上;是前馈网络第二层、大小为d的偏置向量,作用是加到第二层的线性变换结果上;ReLU·为激活函数,表示对线性变换结果应用整流线性单元;将前馈神经网络处理后输出的矩阵X′t以及H″归一化: X″t=LayerNormX′t+H″; 其中,X″t表示Transformer网络的输出特征; S2、将Transformer网络输出的特征矩阵输入SAC算法,生成动作策略;所述SAC算法包括: 1、SAC算法的策略优化目标,所述策略优化目标为最大化期望回报和策略熵: 其中,α为熵正则化系数,Gπ·∣st为策略熵,Rst,at为奖励函数,at为在t时刻的决策动作,st为低压配电网的状态变量;π是强化学习中的策略,用于表示对低压配电网采取动作的规则;π·∣st表示在状态变量st下选择动作的概率分布;τ∈0,1为期望回报的折扣因子,确保长期奖励的衰减;表示基于策略π的期望值操作;Jπ表示策略π的目标函数;∞为无穷步; 2、经验回放:存储智能体与环境的交互数据,交互数据包括环境反馈的状态、动作、奖励;在训练过程中,智能体与低压配电网的环境进行交互,收集由环境反馈的状态、动作、奖励等信息,这些信息形成经验学习样本;在一定的训练周期内,智能体将这些经验学习样本存储在经验回放池中,并从中随机采样,以助于增加样本的多样性,避免强化学习过程中的训练偏差; 3、通过最小化Q函数的贝尔曼误差更新Q网络: 其中,γ为Q函数的折扣因子,Qst′,at表示t时刻状态变量st′下执行动作at的Q值,反映采取该动作后获得的期望回报,表示下一策略动作at+1的期望,LQ为Q网络的误差加权平均;表示在st,at,Rt,st+1′下对Q网络误差进行加权平均,st′是t时刻Transformer网络的输出特征X″t时状态变量,st+1′是t+1时刻Transformer网络输出X″t+1时的状态变量,Rt是t时刻的奖励,at是t时刻智能体执行的动作,at+1是t+1时刻智能体采取的行为动作; 4、更新策略网络,通过最大化策略熵和Q值更新策略网络: 式中,Lπ为策略网络的损失函数,表示在状态变量st′下的加权平均;为在策略π下,基于策略选择的动作at的期望值,πat∣st′为在状态变量st′下,策略π选择动作at的概率; 奖励函数Rst,at由下式计算: Rst,at=ω1Rvolt,t+ω2Rcost,t+ω3Rloss,t+ω4Rsens,t; 式中Rvolt,t为t时刻电压越限惩罚值,Rcost,t为t时刻控制成本,Rloss,t为t时刻用于惩罚低压配电网的功率损耗,Rsens,t为t时刻节点电压灵敏度惩罚值,ω1、ω2、ω3、ω4分别为对应的子项的权重;at为在t时刻的决策动作,st为t时刻低压配电网的状态变量; 其中,电压越限惩罚值表示惩罚节点电压超出允许范围,计算公式为: 式中Rvolt为惩罚值,Vref为参考电压,ΔVmax为允许的最大偏差,Vt,i为t时刻第i个节点的电压标幺值,N为节点数; 控制成本表示惩罚控制动作的执行成本,计算公式为: 式中ci为控制动作at,i的成本系数,Rcost为总执行成本; 用惩罚低压配电网的功率损耗计算公式为: 式中Ploss,i为第i个节点的功率损耗,Rloss为总功率损耗值; 节点电压灵敏度惩罚用于引导智能体优先调整对整体电压有影响的节点,计算公式为: 式中ΔQt,i为第i个节点的无功功率变化量,Sent,i为第i个节点在时刻t的灵敏度,Rsens为电压灵敏度惩罚值。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南理工大学,其通讯地址为:510640 广东省广州市天河区五山路381号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励