吉林大学赵睿获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉吉林大学申请的专利基于强化学习与自注意力机制的自适应交通信号控制方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118942261B 。
龙图腾网通过国家知识产权局官网在2026-04-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411089512.X,技术领域涉及:G08G1/048;该发明授权基于强化学习与自注意力机制的自适应交通信号控制方法是由赵睿;胡浩峰;樊宇泽;高菲;高镇海设计研发完成,并于2024-08-09向国家知识产权局提交的专利申请。
本基于强化学习与自注意力机制的自适应交通信号控制方法在说明书摘要公布了:本发明涉及交通信号控制技术领域,具体公开了基于强化学习与自注意力机制的自适应交通信号控制方法,所述方法包括基于深度强化学习算法建立马尔科夫决策过程模型以及策略神经网络,基于马尔科夫决策过程模型搭建深度Q网络以及自注意力机制,对策略进行评估并对策略神经网络、编码器和解码器的神经网络进行更新,对神经网络进行多次迭代训练,得到训练后的神经网络模型,根据训练后的神经网络模型,生成实时交通信号控制信号,能够在复杂的交通流中逐步学习最优策略,此外,这种算法采用编码器‑解码器结构,将历史轨迹存储在重放缓冲区中,并使用近端策略优化来更新参数。解决了现有自适应交通信号控制方法由于训练需要大量数据并且需要大量计算资源的难题。
本发明授权基于强化学习与自注意力机制的自适应交通信号控制方法在权利要求书中公布了:1.基于强化学习与自注意力机制的自适应交通信号控制方法,其特征在于,所述方法包括: 基于深度强化学习算法建立马尔科夫决策过程模型以及策略神经网络,并根据交叉口各种车流信息的总和确定约束马尔可夫决策过程的观测空间,将路口信号灯的相位约束马尔可夫决策过程的行为空间,根据车辆总数、速度、排队长度、等待时间的加权总和约束马尔可夫决策过程的奖励函数; 基于马尔科夫决策过程模型搭建深度Q网络以及自注意力机制; 对策略进行评估并对策略神经网络、编码器和解码器的神经网络进行更新; 对神经网络进行多次迭代训练,得到训练后的神经网络模型; 根据训练后的神经网络模型,生成实时交通信号控制信号; 所述观测空间为o=,观察子集为,其中表示在时间车道中的车辆总数,表示在时间车道中速度低于的车辆的平均等待时间,表示在车道中车辆m的等待时间;表示在时间车道的队列长度,表示在时间车道中车辆的平均速度,表示在车道中的车辆m的车速,表示该车道允许的最大行驶速度; 动作空间为,智能体在时间步获得观察后,执行动作,即一个交通信号相位,执行的智能体决定时刻允许通行和不允许通行的车道以及维持相位的时间; 所述奖励函数由以下几部分组成: 、、、; ; 其中表示车辆的平均等待时间,表示车辆的平均排队长度,表示车辆的平均速度,表示车辆总数,表示车道总数,分别为四个奖励子项的权重系数; 所述对策略进行评估并对策略神经网络、编码器和解码器的神经网络进行更新步骤具体包括: 对智能体轨迹进行采样; 根据奖励函数与价值函数来评估当前策略; 根据近端策略优化更新策略网络与编码器与解码器的神经网络参数; 所述根据奖励函数与价值函数来评估当前策略步骤具体包括: 计算奖励函数; 根据奖励函数以及观测的可能性分布计算状态价值函数以及行为价值函数; 根据状态价值函数以及行为价值函数计算优势函数; 根据优势函数结果对当前策略进行评估; 所述编码器的编码流程具体包括: 通过嵌入层对观测值进行处理; 将处理后得到的数据通过自注意力机制和残差连接; 通过多层感知机进行进一步处理得到观测信息的表示; 所述解码器的解码流程具体包括: 通过嵌入层对起始动作标志进行处理; 将处理后得到的数据通过第一个自注意力机制进行处理; 对第一个自注意力机制处理得到的数据和观测信息的表示通过第二个自注意力机制以及多层感知机进行处理并得到动作表示。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人吉林大学,其通讯地址为:130012 吉林省长春市前进大街2699号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励