全网唯一标准王
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202211047848.0 (22)申请日 2022.08.30 (71)申请人 中国电子科技 南湖研究院 地址 314002 浙江省嘉兴 市南湖区七 星街 道灵湖南路东20 0米清风榻 (72)发明人 熊勋 徐臻  (74)专利代理 机构 杭州君度专利代理事务所 (特殊普通 合伙) 33240 专利代理师 杨天娇 (51)Int.Cl. G06F 40/279(2020.01) G06F 40/216(2020.01) G06F 40/30(2020.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 一种基于语义关联性的搜题方法以及沉浸 式学习方法 (57)摘要 本发明公开了一种基于语义关联性的搜题 方法以及沉浸式学习方法, 其中基于语义关联性 的搜题方法, 包括: 基于图像采集设备获取待识 别图像; 提取待识别图像中的标题和小题; 计算 标题和小题之间的关联性概率, 若关联性概率大 于阈值, 则取标题和小题作为题目; 否则仅取小 题作为题目; 基于题目在 题库中检索, 完成搜题。 本发明可显著提高搜题准确性。 权利要求书2页 说明书5页 附图2页 CN 115422919 A 2022.12.02 CN 115422919 A 1.一种基于语义关联性的搜题方法, 其特征在于, 所述基于语义关联性的搜题方法, 包 括: 基于图像采集设备获取待识别图像; 提取待识别图像中的标题和小题; 计算标题和小题之间的关联性概率, 若关联性概率大于阈值, 则取标题和小题作为题 目; 否则仅取小题作为题目; 基于所述题目在题库中检索, 完成搜题。 2.如权利要求1所述的基于语义关联性的搜题方法, 其特征在于, 所述计算标题和小题 之间的关联性 概率, 包括: 将标题和小题输入训练好的文本关系分类模型, 得到由文本关系分类模型输出的关联 性概率。 3.如权利要求2所述的基于语义关联性的搜题方法, 其特征在于, 所述文本关系分类模 型的训练过程如下: 获取数据集, 所述数据集中包含若干标题和小题, 且各标题和各小题之间标记有关联 性; 取Bert模型, 利用Ber t模型进行 数据集中标题和小题的关系提取; 根据Bert模型提取的关系以及标题和小题之间标记的关联性优化模型参数; 通过批量的迭代训练得到模型参数最优的Ber t模型作为文本关系分类模型。 4.如权利要求3所述的基于语义关联性的搜题方法, 其特征在于, 所述数据集中标题和 小题之间的关联性由录题人员提供。 5.如权利要求1所述的基于语义关联性的搜题方法, 其特 征在于, 所述阈值 为0.8。 6.一种沉浸式学习方法, 其特 征在于, 所述 沉浸式学习方法, 包括: 基于图像采集设备获取待识别图像; 提取待识别图像中的标题和小题; 计算标题和小题之间的关联性概率, 若关联性概率大于阈值, 则取标题和小题作为题 目; 否则仅取小题作为题目; 基于所述题目在题库中检索, 得到 搜题结果; 将所述搜题结果发送至 近眼显示设备, 实现沉浸式学习。 7.如权利要求6所述的沉浸式学习方法, 其特征在于, 所述计算标题和小题之间的关联 性概率, 包括: 将标题和小题输入训练好的文本关系分类模型, 得到由文本关系分类模型输出的关联 性概率。 8.如权利要求7所述的沉浸式学习方法, 其特征在于, 所述文本关系分类模型的训练过 程如下: 获取数据集, 所述数据集中包含若干标题和小题, 且各标题和各小题之间标记有关联 性; 取Bert模型, 利用Ber t模型进行 数据集中标题和小题的关系提取; 根据Bert模型提取的关系以及标题和小题之间标记的关联性优化模型参数; 通过批量的迭代训练得到模型参数最优的Ber t模型作为文本关系分类模型。权 利 要 求 书 1/2 页 2 CN 115422919 A 29.如权利要求8所述的沉浸式学习方法, 其特征在于, 所述数据集中标题和小题之间的 关联性由录题人员提供。 10.如权利要求6所述的沉浸式学习方法, 其特 征在于, 所述阈值 为0.8。权 利 要 求 书 2/2 页 3 CN 115422919 A 3

PDF文档 专利 一种基于语义关联性的搜题方法以及沉浸式学习方法

文档预览
中文文档 10 页 50 下载 1000 浏览 0 评论 0 收藏 3.0分
温馨提示:本文档共10页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于语义关联性的搜题方法以及沉浸式学习方法 第 1 页 专利 一种基于语义关联性的搜题方法以及沉浸式学习方法 第 2 页 专利 一种基于语义关联性的搜题方法以及沉浸式学习方法 第 3 页
下载文档到电脑,方便使用
本文档由 SC 于 2024-03-03 12:13:59上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。