全网唯一标准王
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202211064385.9 (22)申请日 2022.09.01 (71)申请人 西北师范大学 地址 730030 甘肃省兰州市安宁区安宁东 路967号 (72)发明人 高世伟 曾宇峰 党小超 董晓辉  陈致伟 方则宇 赵文丰 张稣艾  (74)专利代理 机构 北京盛凡佳华专利代理事务 所(普通合伙) 11947 专利代理师 靳桂琳 (51)Int.Cl. G06F 16/9535(2019.01) G06F 16/332(2019.01) G06K 9/62(2022.01) G06N 3/04(2006.01)G06N 3/08(2006.01) (54)发明名称 一种基于双通道信息融合的图神经网络会 话推荐方法 (57)摘要 本发明提出一种基于双通道信息融合的图 神经网络会话推荐方法, 该方法通过两个通道学 习两个层次的会话嵌入, 即全局信息增强的会话 嵌入以及转导信息增强的会话 嵌入。 全局信息增 强会话表示学习层利用其他会话和当前会话的 信息来学习一个全局级的会话 嵌入, 转导信息增 强会话表示学习层只利用当前会话的项目来学 习一个新的会话嵌入, 并将时间信息融入到会话 序列中的项目表示中用于邻居嵌入 学习, 进一步 增强会话序列中的顺序转导关系。 该发明能够弱 化在利用其他会话信息时引入的不相关项(噪 声)对模型性能的影响, 并且在邻居聚合时融合 了时间信息, 从而提升了会话推荐的质量和准确 性。 权利要求书4页 说明书9页 附图2页 CN 115470406 A 2022.12.13 CN 115470406 A 1.一种基于双通道信息融合的图神经网络会话推荐方法, 用在会话序列的下一项推荐 中, 其特征在于: 步骤1: 数据预处理和数据增强。 具体来说, 长度为1的会话和出现次数少于5次的条目 在所有三个数据集中都被过滤了。 此外, 还对数据进行增强。 对于一个会话序列S={vs, 1, vs, 2, ..., vs, n}, 将其分割处理成序列和相应的标签, 即([vs, 1], vs, 2), ([vs, 1, vs, 2], vs, 3), ..., ([vs, 1, vs, 2, ..., vs, n‑1], vs, n)。 步骤2: 会话图和全局图的构造, 将其他类型的数据转换成图是图神经网络必不可少的 一步。 在这里将会话序列转换成会话图和全局图。 其具体构建过程包 含步骤2.1和2. 步骤2.1: 构建会话图, 包 括顺序图和逆序图的构造。 对于一个会 话序列 可以将其建模成一个有向图Gs=(Vs, Es), 其中Vs表示会话S中的节点, Es代表会话S中边的集 合, 每条边 表示为会话中两个相 邻时间点点击的项目。 以会话[v1, v2, v4, v3, v2, v3] 为例, 介绍如何将每个会话序列建模成两个有向图: 一个逆序图和一个顺序图。 对于逆序 图, 首先将序列翻转即变成[v3, v2, v3, v4, v2, v1], 然后为每个项目添加一条自连接边, 并将 边分成四种类型, 分别为ein, eout, ein‑out, eself。 ein表示输入 边, eout表示输出边, , 即一条从vi 到vj的单向边, ein‑out表示双向边, 即两个项目之间的转导是双向的。 eself表示自连接。 对于 顺序图, 将边划分成输入边和输出边, 并且分配一个归一化的权重, 它的计算方法是该边的 出现次数除以该边的起始 节点的出度。 步骤2.2: 全局图构造。 由于会话图只能提取当前会话内的项目转导信息, 为了能够更 好的提取项目的转导关系, 构建全局图来利用所有会话中的项转换提取全局信息, 提高模 型的泛化性。 Gg=(Vg, εg)表示全局图, Vg表示构成全局图的节点即为V中的所有项目, εg代表 所有会话序列中相邻项构成的边, 用邻居项在所有会话的出现频率作为相应边的权值。 出 于效率考虑, 对于每 个项目只保留边权 重最高的N条边。 步骤3: 构建转导信 息增强门控图神经网络的会话推荐模型模型。 详细的网络模型构建 分为三个步骤, 其具体构建过程在步骤3.1、 3.2和步骤3.3进行说明: 步骤3.1: 构建全局信息增强会话表示学习层, 包括构建局部项目表示学习模块、 全局 项目表示学习模块和 会话表示生成模块。 这三个模块的具体实现细节在步骤3.1.1、 3.1.2 和3.1.3进行详细说明: 步骤3.1.1: 构建局部项目表示学习模块。 利用图注意力 网络来学习局部项目表示, 利 用注意力机制聚合邻居, 以学习不同邻居节点的重要性。 通过元素积和非线性转换来计算 和 之间的注意力分数αij, 对于不同的关系, 训练不同的权重向量, 即ain, aout, ain‑out, aself。 为了使不同节点之间的系数具有可比性, 通过softmax函数将注意力权重进行标准 化: 在该公式中, 是 和 之间的关系r的权重向量, 在这里使用LeakyRelu作为激 活函数, 是vi的一阶邻居 。 接下来, 根据之前计 算得到的注意力分数对特征进行线性组合权 利 要 求 书 1/4 页 2 CN 115470406 A 2来获得每 个节点的输出 特征: 步骤3.1.2: 构建全局项目表示学习模块。 利用图注意力 网络的思想, 根据每个连接的 重要性来生成注意力权重。 采用注意力机制区分当前项的不同邻居的重要性。 在这里, 全局 项目表示学习模块由两个组件组成: 信息传播和信息聚合。 信息传播: 一个项目可能涉及到多个项目, 从其他会话序列中获得更丰富的项目转换 信息来帮助预测当前会话的兴趣。 由于不同的邻居项有不同的重要性, 所以考虑利用会话 感知的注意力分数来区分当前项的邻居(Nε(v))的重要性。 因此, 当前项的邻居Nε(v)根据会 话感知的注意力分数线性组合。 其中π(vi, vj)估计不同邻居的重要性权重, 采用softmax函数对其进行归一化。 直观地 说, 一个项目越接近当前会话的偏好, 这个项目就越 接近用户的兴趣 。 因此, 实现π(vi, vj)如 下: 这里选择LeakyRelu作为激活函数, ⊙表示元素乘积, ||表示级联操作, wij∈R1是全局 图中边(vi, vj)的权值, W1∈Rd+1和q1∈Rd+1是可训练参数, s是当前会话的项目表示的平均 值, 借助当前会话的项目表示的均值来计算相关项的重要性权重, 这意味着跟当前会话更 相似的邻居将拥有更重要的地 位。 信息聚合: 最终需要聚合项目表示hv和它的邻居 实现聚合 函数如下: 在这里, 将Relu作为激活函数, W2∈Rd×2d是可训练参数, | |表示拼接操作。 通过单一的聚合器层, 项的表示依赖于它自 己和它的近邻。 可以从一层扩展到多层以 获取高阶连接信息。 这使得来自其他会话的更多有用信息合并到当前表示中。 通过单一层 的信息传播和信息聚合, 将项目本身及其邻居的表示聚合起来形成新的项目表示。 在第k 步, 将一个项目的嵌入表示 为: 代表项目v在第k ‑1步的项目表示, 被设置为hv的初始嵌入。 因此, 项目的k阶表 示是它的初始表示以及它的k阶邻居的聚合, 这样使更多更有效的信息被聚合到当前会话权 利 要 求 书 2/4 页 3 CN 115470406 A 3

.PDF文档 专利 一种基于双通道信息融合的图神经网络会话推荐方法

文档预览
中文文档 16 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共16页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于双通道信息融合的图神经网络会话推荐方法 第 1 页 专利 一种基于双通道信息融合的图神经网络会话推荐方法 第 2 页 专利 一种基于双通道信息融合的图神经网络会话推荐方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 17:32:53上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。