Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 同济大学何斌获国家专利权

同济大学何斌获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉同济大学申请的专利具身认知大模型驱动的自主机器人多任务操作规划方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120307299B

龙图腾网通过国家知识产权局官网在2026-04-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510687989.6,技术领域涉及:B25J9/16;该发明授权具身认知大模型驱动的自主机器人多任务操作规划方法及系统是由何斌;张轩豪;朱忠攀;程斌;王志鹏;周艳敏设计研发完成,并于2025-05-27向国家知识产权局提交的专利申请。

具身认知大模型驱动的自主机器人多任务操作规划方法及系统在说明书摘要公布了:本发明涉及一种具身认知大模型驱动的自主机器人多任务操作规划方法及系统,其中方法包括:S1、基于实时获取的RGB图和深度图进行编码得到具身视觉表征;S2、获取自然语言指令并和具身视觉表征进行跨模态融合,得到融合特征,并基于融合特征多任务分解方案;S3、基于多任务分解方案利用扩散策略生成机器人末端执行器的连续动作轨迹;S4、获取机器人按照连续动作轨迹执行后的第二RGB图像和第二深度图将其作为闭环反馈信号,系统用于实现上述方法。与现有技术相比,本发明基于具身认知大模型将视觉与语言模态的深度融合,并结合扩散策略动作决策模块预测精确的动作轨迹,显著提高了机器人在动态复杂环境中的多任务自主规划与精确执行能力。

本发明授权具身认知大模型驱动的自主机器人多任务操作规划方法及系统在权利要求书中公布了:1.一种具身认知大模型驱动的自主机器人多任务操作规划方法,其特征在于,包括: S1、实时获取机器人执行多任务操作时的第一RGB图像和第一深度图,基于所述的RGB图和深度图进行编码得到具身视觉表征; S2、获取所述的多任务操作的自然语言指令,将所述的自然语言指令和具身视觉表征进行跨模态融合,得到融合特征,并基于所述的融合特征进行多任务分解,得到多任务分解方案;所述的多任务分解方案包括单一任务的执行顺序和优先级; S3、基于所述的多任务分解方案利用扩散策略生成机器人末端执行器的连续动作轨迹;生成所述的连续动作轨迹的方法包括: 基于所述的多任务分解方案获取机器人末端执行器的连续动作空间,并将所述的连续动作空间离散为多个动作单元,构建离散动作空间; 从高斯分布采样得到连续初始轨迹,再将轨迹各元素按离散间隔映射为初始离散序列; 将所述的初始离散序列作为扩散模型的初值,基于所述的具身视觉表征利用所述的扩散模型的去噪网络进行迭代去噪,在每一次迭代时调整所述的动作单元得到优化后的连续动作轨迹; S4、获取机器人按照所述的连续动作轨迹执行后的第二RGB图像和第二深度图,分别将所述的第一RGB图像和第一深度图与的第二RGB图像和第二深度图比较,若相同则跳转至S5;否则,基于不同点生成提示信息返回S2更新所述的多任务分解方案; S5、判断连续运动轨迹是否成功执行,若成功则判别多任务是否完成,未完成则返回S1;若未执行成功则生成反馈包返回S2引导更新多任务分解策略和S4作为附加条件。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人同济大学,其通讯地址为:200092 上海市杨浦区四平路1239号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。