Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京计算机技术及应用研究所安娜获国家专利权

北京计算机技术及应用研究所安娜获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京计算机技术及应用研究所申请的专利一种面向文书领域的基于预训练模型的事件抽取方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115203507B

龙图腾网通过国家知识产权局官网在2026-04-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210566651.1,技术领域涉及:G06F16/951;该发明授权一种面向文书领域的基于预训练模型的事件抽取方法是由安娜;周益周;郭旭东;王红艳;惠欣恒设计研发完成,并于2022-05-23向国家知识产权局提交的专利申请。

一种面向文书领域的基于预训练模型的事件抽取方法在说明书摘要公布了:本发明涉及一种面向文书领域的基于预训练模型的事件抽取方法,属于文书智能技术应用领域。本发明利用爬虫技术爬取公开文书语料,并对数据进行清洗和预处理;根据专业知识构建事件触发词和论元信息表并完成进一步拓展;根据触发词表和对应事件论元信息制定问题对模板,并按照指定格式完成模板数据标注;搭建触发词识别和事件论元信息抽取任务联合的神经网络模型Bert+Softmax,通过加载模型参数对预测数据集进行预测得到事件抽取结果。本发明将事件抽取任务转化为机器阅读理解任务,提升了事件抽取的准确性,使模型具有类人一样的理解力,且模型泛化能力和灵活性更强,在文书事件抽取应用中取得了较好的结果。

本发明授权一种面向文书领域的基于预训练模型的事件抽取方法在权利要求书中公布了:1.一种面向文书领域的基于预训练模型的事件抽取方法,其特征在于,该方法包括如下步骤: 步骤S1,利用爬虫技术爬取已公开的文书并对其进行去噪处理,包括特殊符号处理,脏数据去除,分词和停用词过滤; 步骤S2,基于文书业务需求制定原始触发词表和事件论元表并进行词表拓展; 步骤S3,根据触发词表和事件论元表构造问题对模板,并对问题对数据完成指定格式标注; 步骤S4,基于Bert预训练语言模型搭建触发词识别和事件论元识别联合神经网络模型,采用Adam算法训练和验证神经网络模型,优化模型参数使模型达到收敛状态并对其保存; 步骤S5,使用模型分别对触发词和事件论元信息进行预测和去重处理,从而获得事件抽取结果; 其中, 神经网络模型由触发词识别和事件论元信息抽取两阶段子任务构成;该模型首先基于Bert预训练模型进行词向量表征,接着通过添加Softmax层进行触发词分类,并通过二分类网络进行事件论元起止位置预测,最后将触发词多分类任务和论元预测任务合并完成模型的联合训练;Bert预训练模型由12层TransformerEncoder模块拼接,采用双向注意力机制以MaskedLM和NextSentencePrediction作为目标任务进行模型训练; 将训练集和验证集语料输入模型进行训练和验证,使用Adam算法对参数做相应调节和优化,当模型达到收敛状态时保存对应网络参数;该模型损失函数为两个子任务的损失函数之和,模型联合损失函数设置为:,其中,为触发词识别任务损失函数,为事件论元信息抽取任务损失函数,参数用来调整模型联合损失函数的下降速率,而参数取值依赖于触发词和事件论元类别数量。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京计算机技术及应用研究所,其通讯地址为:100854 北京市海淀区永定路51号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。