说明:收录25万 73个行业的国家标准 支持批量下载
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210174140.5 (22)申请日 2022.02.24 (71)申请人 华南理工大 学 地址 510640 广东省广州市天河区五山路 381号 (72)发明人 晋建秀 王洒洒 舒琳  (74)专利代理 机构 广州市华学知识产权代理有 限公司 4 4245 专利代理师 林梅繁 (51)Int.Cl. G06V 20/40(2022.01) G06K 9/62(2022.01) G06N 3/04(2006.01) G06N 3/08(2006.01) G06V 10/77(2022.01)G06V 10/80(2022.01) G06V 10/82(2022.01) (54)发明名称 基于时序特征的虚拟现实视频情感识别方 法及系统 (57)摘要 本发明属于认知心理学、 虚拟现实技术和情 感连续识别的交叉融合领域, 为基于时序特征的 虚拟现实视频情感识别方法和系统, 包括: 建立 带有连续情感标签的虚拟现实场景音视频数据 集; 对待识别的虚拟现实场景视频进行跨范式数 据预处理; 对预处理后的数据进行特征提取, 用 深度学习网络提取来自音频、 视觉、 时序和生理 信号的深度特征; 训练单模态虚拟现实场景视频 情感回归模型, 并融合生成、 训练多模态情感回 归神经网络模 型; 将待识别虚拟现实场景视频输 入多模态情感回归神经网络模型, 输出连续情感 回归结果。 本发明能够基于时序、 视觉、 音频、 生 理信号多模态特征, 为虚拟现实场景视频的情感 评估提供新途径, 高效准确地进行情感连续识 别。 权利要求书2页 说明书4页 附图2页 CN 114581823 A 2022.06.03 CN 114581823 A 1.基于时序特 征的虚拟现实视频情感识别方法, 其特 征在于, 包括以下步骤: S1、 建立带有连续情感标签的虚拟现实场景音视频数据集, 数据集内容包括手动提取 的连续情绪标签、 音频 特征、 视觉特征及生理信号特 征; S2、 对待识别的虚拟现实场景视频进行跨范式数据预处 理; S3、 对预处理后的数据进行特征提取, 用深度学习网络提取来自音频、 视觉、 时序和生 理信号的深度特 征; S4、 训练单模态虚拟现实场景视频情感回归模型, 并融合生成多模态情感回归神经网 络模型; S5、 训练多模态情感回归神经网络模型; S6、 将待识别虚拟现实场景视频输入多模态情感回归神经网络模型, 输出连续情感回 归结果。 2.根据权利要求1所述的虚拟现实视频情感识别方法, 其特 征在于, 步骤S1包括: S11、 搜集包含不同情 感内容的虚拟现实场景视频, 通过M名健康受试者对搜集到的N个 虚拟现实场景视频进行SAM自我评估, 根据评估得分, 在各个情感象限分别筛选出F个虚拟 现实场景视频; S12、 搭建连续SAM自我评估实验范式, 由P个健康受试者对虚拟现实场景视频进行连续 SAM情感评估实验, 受试者在头戴虚拟头显观看虚拟现实场景视频时, 实时进行SAM自我评 估; 收集受试者的连续生理信号和对虚拟现实场景视频在愉悦度、 唤醒度和支配度三个维 度上的评分, 将P个健康受试者的连续评分平均值作为虚拟现实场景视频的情绪标签。 S13、 对每个虚拟现实场景视频进行处理, 提取其在视觉、 音频方面的手工特征和生理 信号特征, 并与连续情感标签相对应, 实现虚拟现实场景音视频 连续情感数据集的构建。 3.根据权利要求2所述的虚拟现实视频情感识别方法, 其特征在于, 步骤S13对每个虚 拟现实场景视频进行处 理, 包括手工特 征提取、 特 征对齐和归一 化处理。 4.根据权利要求3所述的虚拟现实视频情感识别方法, 其特 征在于, 步骤S13包括: S131、 提取虚拟现实场景视频在视觉、 音频方面的手工特征、 时序特征、 动作信息特征 和生理信 号特征, 其中生理信 号特征包含EEG、 BVP、 GSR、 ECG及HR, 视觉特征包括颜色特征、 灰度特征、 形状特 征、 纹理特征及共生矩阵特 征; S132、 将来自不同维度的特征与情感标签对齐, 并作各维度与情感高相 关的情感特征 选择和归一 化处理。 5.根据权利要求1所述的虚拟现实视频情 感识别方法, 其特征在于, 步骤S3 中深度学习 网络提取的音频特征被转化为灰度图谱图片, 与视觉特征一同由CNN网络和RNN网络提取视 觉、 音频和时序特征, 由RNN网络提取生理特征; 并将所提取的特征进 行特征主成分分析、 对 齐和归一 化处理。 6.根据权利要求1所述的虚拟现实视频情 感识别方法, 其特征在于, 步骤S4中单模态情 感回归模型包括视觉情感回归网络、 音频情感回归网络和 生理信号情感回归网络, 其网络 主要架构均为CN N‑RNN网络, 并在CN N网络中添加了注意力机制模块CABM 。 7.根据权利要求6所述的虚拟现实视频情感识别方法, 其特 征在于, 步骤S4包括: S41、 分别训练视觉情 感回归网络、 音频情 感回归网络和生理信号情感回归网络三种单 模态虚拟现实场景视频情感回归 模型;权 利 要 求 书 1/2 页 2 CN 114581823 A 2S42、 根据特征层融合、 决策层融合和混合融合的方式, 生成多模态情感回归神经网络 模型; 所述特征层融合指各单模态神经网络在提取到特征后, 通过Add和Concat的方式合并 各模态的多层特征, 随后输入到池化层和全连接层; 所述决策层融合指各单模态模型获得 回归结果后根据最大池化、 平均池化、 加权池化的方式得到最终回归 结果; 所述混合融合意 指将特征层融合和决策层融合结合的方式获得回归结果。 8.基于时序特 征的虚拟现实视频情感识别系统, 其特 征在于, 包括: 数据集建立模块, 用于建立带有连续情感标签的虚拟现实场景音视频数据集, 数据集 内容包括手动提取的连续情绪标签、 音频 特征、 视觉特征及生理信号特 征; 预处理模块, 用于对待识别的虚拟现实场景视频进行跨范式数据预处 理; 特征提取模块, 对预处理后的数据进行特征提取, 用深度学习网络提取来自音频、 视 觉、 时序和生理信号的深度特 征; 多模态回归模型生成及训练模块, 训练单模态虚拟现实场景视频情感回归模型, 并融 合生成多模态情感回归神经网络模型, 并训练多模态情感回归神经网络模型; 情感识别模块, 用于将待识别虚拟现实场景视频输入多模态情感回归神经网络模型, 输出连续情感回归结果。 9.根据权利要求8所述的虚拟现实视频情 感识别系统, 其特征在于, 数据集建立模块建 立数据集的过程包括: 搜集包含不同情 感内容的虚拟现实场景视频, 通过M名健康 受试者对搜集到的N个虚拟 现实场景视频进行SAM自我评估, 根据评估得分, 在各个情感象限分别筛选出F个虚拟现实 场景视频; 搭建连续SAM自我评估实验范式, 由P个健康受试者对虚拟现实场景视频进行连续SAM 情感评估实验, 受试者在头戴虚拟头显观看虚拟现实场景视频时, 实时进行SAM自我评估; 收集受试者的连续生理信号和对虚拟现实场景视频在愉悦度、 唤醒度和支配度三个维度上 的评分, 将P个健康受试者的连续评分平均值作为虚拟现实场景视频的情绪标签。 对每个虚拟现实场景视频进行处理, 提取其在视觉、 音频方面的手工特征和生理信号 特征, 并与连续情感标签相对应, 实现虚拟现实场景音视频 连续情感数据集的构建。 10.根据权利要求8所述的虚拟现实视频情感识别系统, 其特征在于, 特征提取模块中 深度学习网络提取的音频特征被转化为灰度图谱图片, 与视觉特征一同由CNN网络和RNN网 络提取视觉、 音频和时序特征, 由RNN网络提取生理特征; 并将所提取的特征进行特征主成 分分析、 对齐和归一 化处理。权 利 要 求 书 2/2 页 3 CN 114581823 A 3

.PDF文档 专利 基于时序特征的虚拟现实视频情感识别方法及系统

文档预览
中文文档 9 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共9页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 基于时序特征的虚拟现实视频情感识别方法及系统 第 1 页 专利 基于时序特征的虚拟现实视频情感识别方法及系统 第 2 页 专利 基于时序特征的虚拟现实视频情感识别方法及系统 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 01:21:37上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。