北京交通大学温玉辉获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京交通大学申请的专利基于神经纹理和三维高斯的可编辑数字人建模方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119904572B 。
龙图腾网通过国家知识产权局官网在2026-04-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411725689.4,技术领域涉及:G06T17/00;该发明授权基于神经纹理和三维高斯的可编辑数字人建模方法及装置是由温玉辉;汪意;景丽萍;周正忠设计研发完成,并于2024-11-28向国家知识产权局提交的专利申请。
本基于神经纹理和三维高斯的可编辑数字人建模方法及装置在说明书摘要公布了:本发明提供了一种基于神经纹理和三维高斯的可编辑数字人建模方法及装置,该方法包括:通过三维高斯泼溅模型根据目标对象的动作序列视频数据对数字人的表情、姿态和外观进行建模,得到数字人的高斯模型;通过神经纹理模型对数字人的表情、姿态和外观进行建模,得到数字人的神经纹理模型;对高斯模型进行剪枝,并根据剪枝后的高斯模型输出的渲染图像与数字人的神经纹理模型输出的渲染图像进行混合渲染,得到混合渲染图像;基于混合渲染图像和动作序列视频数据对数字人的高斯模型进行优化,得到可编辑数字人模型。本发明所述方法减少了数字人模型存储开销和结构复杂度,并提高了数字人模型皮肤表面高频细节和编辑效率。
本发明授权基于神经纹理和三维高斯的可编辑数字人建模方法及装置在权利要求书中公布了:1.一种基于神经纹理和三维高斯的可编辑数字人建模方法,其特征在于,包括: 通过三维高斯泼溅模型根据目标对象的动作序列视频数据对所述目标对象对应的数字人的表情、姿态和外观进行建模,得到所述数字人的高斯模型;所述动作序列视频数据包括所述目标对象的表情参数、姿态参数和外观参数; 通过神经纹理模型根据所述动作序列视频数据对所述数字人的人的表情、姿态和外观进行建模,得到所述数字人的神经纹理模型; 对所述高斯模型进行剪枝,并根据剪枝后的高斯模型输出的渲染图像与所述数字人的神经纹理模型输出的渲染图像进行混合渲染,得到混合渲染图像;基于所述混合渲染图像和所述动作序列视频数据对所述数字人的高斯模型进行优化,得到可编辑数字人模型; 所述混合渲染图像通过如下步骤获取: 对高斯模型进行剪枝: 根据深度图像确定高斯渲染器的不透明度阈值,基于目标视频帧的帧掩码确定待剪枝目标语义标签;其中,深度图通过初始化后的可微分光栅化渲染器根据目标视频帧在SMPL-X模型对应的三角形网格信息、顶点坐标、索引和优化后神经纹理对目标视频帧进行光栅化处理得到;帧掩码通过动作序列视频数据获取;待剪枝目标包括手部、胳膊; 基于高斯渲染器根据不透明度阈值和待剪枝目标语义标签对高斯模型对应三角形网格内部以及手部、胳膊的高斯点进行剪枝,得到剪枝后的高斯模型; 将剪枝后的三维高斯模型输入高斯渲染器,得到渲染图像以及对应的高斯不透明度图,并将渲染图像与所述数字人的神经纹理模型输出的光栅化渲染图像根据高斯不透明度图进行叠加,得到混合渲染图像; 所述混合渲染图像通过下式表示: =; 其中,为所述混合渲染图像,为剪枝后的高斯模型输出的渲染图像,为高斯不透明度,为所述数字人的神经纹理模型输出的光栅化渲染图像,即神经纹理渲染图像。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京交通大学,其通讯地址为:100044 北京市海淀区西直门外上园村3号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励