中国电子科技集团公司第五十四研究所畅鑫获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国电子科技集团公司第五十四研究所申请的专利一种基于异构无人机群的智能协同对抗策略生成方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116627171B 。
龙图腾网通过国家知识产权局官网在2026-04-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310594830.0,技术领域涉及:G05D1/46;该发明授权一种基于异构无人机群的智能协同对抗策略生成方法是由畅鑫;李艳斌;解志卿;张冠杰;付长军;杜子文;董宗宽设计研发完成,并于2023-05-25向国家知识产权局提交的专利申请。
本一种基于异构无人机群的智能协同对抗策略生成方法在说明书摘要公布了:本发明公开了一种基于异构无人机群的智能协同对抗策略生成方法,属于多智能体深度强化学习领域。本发明包括以下步骤:构建协同对抗场景,构建蓝方对抗规则策略模型,构建红方异构多智能体强化学习模型,智能策略训练与生成。本发明面向智能协同对抗策略生成方法问题,抽象电磁对抗和火力对抗机理,创新性构建异构多智能体强化学习模型,通过数据训练实现智能化对抗策略生成。
本发明授权一种基于异构无人机群的智能协同对抗策略生成方法在权利要求书中公布了:1.一种基于异构无人机群的智能协同对抗策略生成方法,其特征在于,包括以下步骤: 步骤1:构建协同对抗场景,包括实体数量与场景位置、观测规则、火力打击规则、电磁对抗规则、机动规则、观测数据和奖赏函数;具体方式为: 步骤1-1:构建实体数量与场景位置 采用二维矩形对抗场景,二维矩形对抗场景的X轴上的投影范围为,二维矩形 对抗场景的Y轴上的投影范围为;将对抗场景中的实体分为红方和蓝方,各包括1架 干扰机、2架战斗机和1个基地;红方干扰机的位置为,,红方第1架战斗机的位置为,,红方第2架战斗机的位置为,,红方基地的位置为,,蓝方干扰机位置为, ,蓝方第1架战斗机的位置为,,蓝方第2架战斗机的位置为,,蓝方基地的位置为,; 步骤1-2:构建观测规则 观测距离门限设置为,观测角度门限设置为;对于红方第n架战斗机,当与蓝方实 体m之间的关系满足如下条件时,红方第n架战斗机可以发现目标,并将蓝方实体位置用于 构建观测数据: 其中,和为t步红方第n架战斗机的位置,和为t-1步红方第n架战斗机 的位置,和为t步蓝方实体m的位置; 对于蓝方第m架战斗机,当与红方实体n之间的关系满足如下条件时,蓝方第m架战斗机可以发现目标,并将红方实体位置用于构建观测数据: 其中,和为t步蓝方第m架战斗机的位置,和为t-1步蓝方第m架战斗机 的位置,和为t步红方实体n的位置; 步骤1-3:构建火力打击规则 火力打击距离门限设置为,火力打击角度门限设置为;对于红方第n架战斗机,当 与蓝方实体m之间的关系满足如下条件时,红方第n架战斗机可以打击目标,并将蓝方实体 从场景中删除: 其中,和为t步红方第n架战斗机的位置,和为t-1步红方第n架战斗机 的位置,和为t步蓝方实体m的位置; 对于蓝方第m架战斗机,当与红方实体n之间的关系满足如下条件时,蓝方第m架战斗机可以打击目标,并将红方实体从场景中删除: 其中,和为t步蓝方第m架战斗机的位置,和为t-1步蓝方第m架战斗机 的位置,和为t步红方实体n的位置; 步骤1-4:构建电磁对抗规则 电磁对抗距离门限设置为,电磁对抗角度门限设置为;对于红方干扰机n,当与蓝 方实体m之间的关系满足如下条件时,红方干扰机n可以压制观测距离,使观测距离门限变 为原来的12: 其中,和为t步红方干扰机n的位置,和为t-1步红方干扰机n的位置,和为t步蓝方实体m的位置; 对于蓝方干扰机m,当与红方实体n之间的关系满足如下条件时,蓝方干扰机n可以压制观测距离,使观测距离门限变为原来的12: 其中,和为t步蓝方干扰机m的位置,和为t-1步蓝方干扰机m的位置,和为t步红方实体n的位置; 步骤1-5:构建机动规则 除了基地不可移动,所有实体根据控制速度和进行位置更新;设置速度门限为, 位置更新规则为 步骤1-6:构建观测数据 根据观测规则,将各实体n能看到的目标组装为列表,用于与智能模型进行交互; 步骤1-7:构建奖赏函数 设置零和博弈目标:蓝方力量配合完成对于红方基地打击,红方保护本方基地; 当红方基地被击毁时,本回合结束,标志位done变为True,红方奖赏reward_r为-150,蓝方奖赏reward_b为150; 当蓝方所有攻击力量被消灭时,本回合结束,标志位done变为True,红方奖赏reward_r为150,蓝方奖赏reward_b为-150; 当蓝方单位被击毁时,本回合不结束,标志位done保持False,红方奖赏reward_r为75,蓝方奖赏reward_b为-75; 其他情况,本回合不结束,标志位done保持False,蓝方奖赏reward_b为-1,红方奖赏reward_r为 ; 步骤2:构建蓝方对抗规则,包括蓝方各实体的横向动作和纵向动作;蓝方对抗规则具体包括: 蓝方干扰机的横向动作为: 蓝方干扰机的纵向动作为: 蓝方第1架攻击机的横向动作为: 蓝方第1架攻击机1的纵向动作为: 蓝方第2架攻击机的横向动作为: 蓝方第2架攻击机的纵向动作为: ; 步骤3:构建红方异构多智能体强化学习模型;具体方式为: 步骤3-1,构建状态空间: 通过协同对抗场景,获取红方第1架战斗机的观测空间和 红方第2架战斗机的观测空间,并与我方信息进行拼接,形成状态空间; 步骤3-2,构建深度网络: 深度网络包括四个全连接神经网络Net1~Net4,其中,Net1用于提取状态空间的特征, 该网络输入维度与状态空间维度保持一致,输出维度为状态空间维度的一半;Net2、 Net3和Net4的结构相同,Net2、Net3和Net4基于提取的状态空间特征映射形成对应实体动 作的价值向量、和,该网络输入维度为状态空间维度的一半,输出维度为[0, ]、[0,-]、[,0]和[-,0]的4个维度: 步骤3-3,构建动作选择策略: 设置动作选择门限,随机从[0,1]中选择数值; 当时,各实体将从[0,]、[0,-]、[,0]和[-,0]中随机映射到动作空 间[,]、[,]和[,]; 当时,从各实体动作的价值向量、和中获取得到最大的编号,即、和,然后从[0,0.1]、[0,-0.1]、[0.1,0]和[-0.1,0]中 对应映射到动作空间[,]、[,]和[,]中; 步骤3-4,构建经验存储空间: 动作空间=[,]、=[,]和=[,]执行之后将从场景中获得 更新后的状态空间和红方奖赏reward_r;将状态空间、各实体动作空间[,]、[ ,]和[,]、更新后的状态空间和红方奖赏reward_r拼接成经验向量,并存 储在变量storage中; 步骤3-5,构建价值差计算公式并更新神经网络参数: 从变量storage中随机读取经验向量,依据价值差计算公式loss,利用PyTorch深度 学习框架,使用Adam算法对四个全连接神经网络Net1-Net4的神经网络参数进行更新; 价值差计算公式loss为: 其中,表示所有智能体从更新后的状态空间得的各实体动作的价值向 量、和中,选择个体最大的并求和形成群体价值;表示所有智能 体从当前状态得的各实体动作的价值向量、和中,选择各自动作所对应的价 值,并求和得到当前群体价值;为衰减系数; 步骤4:基于协同对抗场景和蓝方对抗规则,对红方异构多智能体强化学习模型进行训练,生成智能协同对抗策略。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国电子科技集团公司第五十四研究所,其通讯地址为:050081 河北省石家庄市中山西路589号中国电子科技集团公司第五十四研究所总体部;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励