南京理工大学戴可人获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京理工大学申请的专利一种利用轻量化神经网络辨识多次动态冲击信号的方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116361654B 。
龙图腾网通过国家知识产权局官网在2026-05-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310346614.4,技术领域涉及:G06F18/214;该发明授权一种利用轻量化神经网络辨识多次动态冲击信号的方法是由戴可人;马翔;石慧发;蔚达;张合设计研发完成,并于2023-04-03向国家知识产权局提交的专利申请。
本一种利用轻量化神经网络辨识多次动态冲击信号的方法在说明书摘要公布了:本发明公开了高速动态冲击信号的轻量化神经网络辨识方法。针对侵彻多层硬目标的过程中,多次冲击动态冲击的过载信号的存在信号粘连的情况使得辨识异常困难。基于此类问题提出了一种基于注意力机制的轻量化网络辨识方法。首先,对于多次冲击实验台等效模拟的过载信号进行时频特征分析,利用连续小波变换提取出时频特征作为神经网络的输入。设计了一种基于注意力机制的轻量化的网络构架,删除了冗余的层数,增加了残差连接结构和一种轻量化的注意力机制,使得本构架在极大减少参数的情况下保证了识别精度。
本发明授权一种利用轻量化神经网络辨识多次动态冲击信号的方法在权利要求书中公布了:1.一种利用轻量化神经网络辨识多次动态冲击信号的方法,其特征在于,包括以下步骤: 步骤1,在不同工况下对目标进行动态冲击试验,并采集不同工况下的动态冲击信号,建立目标的多次动态冲击信号的数据库,根据冲击特征对数据库中的动态冲击信号进行分类,得到分类后的动态冲击信号; 结合实际侵彻弹药的使用场景,开展了实验室等效模拟动态数据工作,得到不同冲击速度下的实验数据;依照速度的不同,将不同冲击速度下的实验数据分为低速数据集、中速数据集和高速数据集;结合战场的大多数攻击目标的具体形式,依照目标层数的不同,再将不同速度数据集下的样本分为1-6层,即得到分类后的动态冲击信号; 转入步骤2; 步骤2,利用连续小波变化方法对分类后的动态冲击信号进行特征提取,对应得到特征数据,并将特征数据构成训练集和测试集,转入步骤3; 步骤3,构建轻量化神经网络构架,所述轻量化神经网络构架包括max-refire模块和轻量化注意力机制模块,具体如下: 步骤3.1:设计轻量化网络中的max-refire模块: max-refire模块由最大池化模块、Firemodule和残差连接构成;设输入特征为x,则max-refire的最大池化层输出y表示为: 1 其中为最大池化操作,池化核大小为k,池化步长为s; 对于压缩层,其最大池化层的输出y特征图通过1x1卷积进行通道数压缩,压缩层使用的卷积核权重为,偏置项为,则压缩层的输出特征图表示为: 2 其中表示1×1的卷积核,表示sigmod激活函数; 对于扩展层,即expand层,扩展层通过1x1卷积和3x3卷积将压缩层的输出特征扩展,从而增加了非线性表达能力;扩展层包括一个1x1卷积核和一个3x3卷积核,其中第一个1x1卷积层的卷积核权重为,偏置项为,3x3卷积层的卷积核权重为,偏置项为;则expand层的输出特征图表示为: 3 其中表示将两个特征图在通道维度上连接起来;在公式3中,通过1x1卷积层和3x3卷积层在通道维度上连接起来,以增加网络的非线性表达能力,同时也保持了网络的轻量化;在此基础之上增加了残差结构,其数学表达式如下: 4 其中为残差结构输出,为残差学习函数; 步骤3.2:设计轻量化注意力机制模块 引入注意力机制重点关注侵彻穿靶阶段的过载特征信息,结合通道和空间注意力机制,得出了使用卷积模块的轻量化注意力机制模块CBAM;其中通道注意力机制模块CAM通过最大池化层和平均池化层提取特征的空间信息;其通道注意力特征计算方式如下: 5 其中F表示CAM的输入,MLP表示全连接层,表示平均池化操作,池化核大小为k,池化步长为s,为CAM中平均池化层的权重,为CAM中平均池化层的偏置,为CAM中最大池化层的权重,为CAM中最大池化层的偏置,然后将轻量化空间注意力模块SAM作为补充,空间注意力特征的计算方式如下: 6 其中F’表示SAM的输入,表示3个3×3的卷积核的连续运算;表示SAM中3×3卷积核的权重;表示SAM中3×3卷积核的偏置; 因此通过CAM能够辨识冲击特征中的特异性通道,并且为SAM提供增强的层数特征,此类串行表达能够有效的增加对于冲击次数的辨识结果; 转入步骤4; 步骤4,利用训练集对轻量化神经网络构架进行训练,获得轻量化神经网络,具体如下: 步骤4.1:对max-refire中的压缩层和扩展层进行参数梯度更新: 由于最大池化层没有参数变化,所以梯度不需要更新;将上述最大池化层所得的输出作为压缩层的输入,那么压缩层的参数更新公式为: 7 其中,损失函数为,学习率为,表示更新后1×1卷积核的权重,表示更新后1×1卷积核的偏置,表示当前1×1卷积核的权重,表示当前1×1卷积核的偏置,表示损失函数对参数的梯度,表示损失函数对参数的梯度,和均通过反向传播算法计算得出;再将压缩层的参数作为扩展层的输入,那么扩展层的参数更新公式为: 8 其中,表示更新后1×1卷积核的权重,表示更新后1×1卷积核的偏置,表示更新后3×3卷积核的权重,表示更新后3×3卷积核的偏置;表示当前1×1卷积核的权,分别表示当前1×1卷积核的偏置,表示当前3×3卷积核的权重,表示当前3×3卷积核的偏置;表示损失函数对参数的梯度,表示损失函数对参数的梯度,表示损失函数对参数的梯度,表示损失函数对参数的梯度,和均通过使用反向传播算法计算得出; 步骤4.2:对轻量化注意力机制模块的参数梯度进行更新: 由于最大池化和平均池化中不涉及参数梯度的更新,也由于通道注意力是由平均池化和最大池化层拼接后连接到全连接层,所以分别将两个部分的权重和偏置按照下式进行更新: 9 其中,表示通过平均池化层后全连接层的更新后权重,表示通过平均池化层后全连接层的更新后偏置,表示通过最大池化层后全连接层的更新后的权重,表示通过最大池化层后全连接层的更新后的偏置;表示通过平均池化层后全连接层的当前权重,表示通过平均池化层后全连接层的当前偏置,表示通过最大池化层后全连接层的当前权重,表示通过最大池化层后全连接层的当前偏置;表示损失函数对参数的梯度,表示损失函数对参数的梯度,表示损失函数对参数的梯度,表示损失函数对参数的梯度,和均通过反向传播算法计算得出; 对于空间注意力来说,其由平均池化和最大池化层串联后拼接后,再进入到三个3×3的卷积层,所以通过平均池化和最大池化后的权重和偏置更新如下: 10 其中,表示更新后3×3卷积核的权重,表示更新后3×3卷积核的偏置,表示当前3×3卷积核的权重,表示当前3×3卷积核的偏置,表示损失函数对参数的梯度,表示损失函数对参数的梯度,和通过反向传播算法计算得出; 转入步骤5; 步骤5、将测试集输入轻量化神经网络,验证轻量化神经网络的准确度。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市玄武区孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励