全网唯一标准王
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210721153.X (22)申请日 2022.06.24 (71)申请人 暨南大学 地址 510632 广东省广州市天河区黄埔大 道西601号 (72)发明人 黄斐然 李志颖 陈唯彬 赵容  吴永东 陈志彬  (74)专利代理 机构 广州市华学知识产权代理有 限公司 4 4245 专利代理师 郑秋松 (51)Int.Cl. G06V 40/10(2022.01) G06V 10/80(2022.01) G06V 10/82(2022.01) G06N 3/04(2006.01)G06N 3/08(2006.01) (54)发明名称 一种衣着识别方法、 系统、 介质及设备 (57)摘要 本发明公开了一种衣着识别方法、 系统、 介 质及设备, 该方法包括下述步骤: 获取多场景下 的摄像头视频, 将其中的黑白视频着色, 整合得 到全彩色的图像数据库, 对图像数据库进行解帧 和标注, 构建衣着数据集, 基于YOLOv5模型构建 衣着识别网络, 在主干网络层尾部增加坐标注意 力模块, 在Neck网络层将YOL Ov5模型中的拼接模 块替换为Concat_bifpn模 块; 基于衣着数据集训 练衣着识别 网络; 进行复合检测, 基于YOLOv5模 型对测试集中的人物进行识别, 裁剪提取得到人 像结果集, 输入衣着识别网络得到衣着识别结果 图像集。 本发 明解决了摄像头环 境下目标检测难 的问题, 实现了精度与速度平衡的高效目标检测 效果。 权利要求书4页 说明书11页 附图3页 CN 115100681 A 2022.09.23 CN 115100681 A 1.一种衣着识别方法, 其特 征在于, 包括下述 步骤: 获取多场景下的摄像头视频, 划分为黑 白视频以及非黑 白视频, 将黑 白视频通过着色 网络进行颜色的填充, 将 着色后的视频与非黑白视频整合得到全彩色的图像数据库; 对全彩色的图像数据库进行解帧, 对有效数据图片进行 标注, 构建衣着数据集; 基于YOLOv5模型构建衣着识别网络, 设有依次连接的主干网络层、 Neck网络层和输出 层; 在主干网络层尾部增加坐标注意力模块, 坐标注意力模块采用坐标注意力 机制获取特 征信息; 在Neck网络层将YOLOv5模型中的拼接模块替换为 融合多尺度特征融合算法的Concat_ bifpn模块, 用于融合浅层网络跟深层网络的特征, 通过预设可学习的权重学习不同输入 特 征的重要性; Neck网络层设有多个Concat_bifpn模块, 包括第一 融合模块、 第二融合模块、 第三 融合 模块、 第四融合模块、 第 五融合模块和第六融合模块; 输出层设有多个预测头, 包括第一预 测头、 第二预测头、 第三预测头和第四预测头; 第一融合模块将自身上一层输出与主干网络层输出进行融合, 融合后经过下一层输出 至第五融合模块; 第二融合模块将自身上一层输出与主干网络层输出进行融合, 融合后经过下一层输出 至第四融合模块; 第三融合模块将自身上一层输出与主干网络层输出进行融合, 融合后经过下一层输出 至输出层的第一预测头, 输出第一尺度特 征; 第四融合模块将自身上一层输出、 第 二融合模块下一层输出以及主干网络层输出进行 融合, 融合后经 过下一层输出至 输出层的第二预测头, 输出第二尺度特 征; 第五融合模块将自身上一层输出、 第 一融合模块下一层输出以及主干网络层输出进行 融合, 融合后经 过下一层输出至 输出层的第三预测头, 输出第三尺度特 征; 第六融合模块将自身上一层输出与主干网络层输出进行融合, 融合后经过下一层输出 至输出层的第四预测头, 输出第四尺度特 征; 坐标注意力模块经 过卷积层和上采样层后输出 特征至第一融合模块; 基于衣着数据集训练衣着识别网络; 进行复合检测, 基于YOLOv5模型对测试集中的人物进行识别, 裁剪提取得到人像结果 集, 将人像结果 集输入衣着识别网络进行识别, 得到衣着识别结果图像集。 2.根据权利要求1所述的衣着识别方法, 其特征在于, 所述着色网络包括实例着色网络 和全图像着色网络, 分别进行实例着色和全图像着色, 实例着色网络和全图像着色网络对 应层级进行端到端训练; 实例着色网络和全图像着色网络提取得到实例图像特征和全图像特征, 经过多层卷积 层训练得到全图像权重与实例权重, 对实例图像特征和实例权重进行结合形成全图像特征 大小, 对全图像特征和每组实例图像特征分别按照对应权重进行加权融合, 获得着色后的 图像, 进而得到着色后的视频图像。 3.根据权利要求1所述的衣着识别方法, 其特征在于, 所述坐标注意力模块采用坐标注 意力机制获取 特征信息, 具体 计算过程 为:权 利 要 求 书 1/4 页 2 CN 115100681 A 2坐标注意力模块对每个输入特征从维度h和  w分解, 分解后的张量分别经过全局池化 处理, 生成张量Xh和张量Xw, 在卷积块中输入连接的张量Xh和Xw生成一个编码的Y, 具体表示 为: 其中, 表示连接Xw和Xh, *表示卷积运算, G和f分别表示归一化和激活函数, W 表示卷积滤波器; 再次拆分Y得到 和 , 具体表示 为: ; 其中,Split()表示Split函数, 用于分割字符串; 卷积并激活 和 , 最终输出为: 其中, F表示卷积, 表示激活函数。 4.根据权利 要求1所述的衣着识别方法, 其特征在于, Concat_bifpn模块通过预设可学 习的权重学习不同输入特 征的重要性, 每一个输入层的权 重具体表示 为: 其中,Xi表示每一层的输入, Wi表示每一个输入层的权 重, 表示常数; 输出结果表示 为: 其中, Yfin表示输出 结果,Conv表示卷积 操作,Relu是激活函数, N表示输入层数。 5.根据权利要求1所述的衣着识别方法, 其特征在于, 第 一融合模块将主干网络层第八 层输出与第一融合模块上一层上采样层输出进 行融合, 融合后输出至第一融合模块下一层 C3模块, 第五融合模块将第一融合模块下一层C3模块输出、 主干网络层第八层输出以及第五融 合模块上一层卷积层输出进行融合, 融合后输出至第 五融合模块下一层C3模块, 并经过输 出层的第三预测头 输出第三尺度特 征; 第二融合模块将主干网络层第六层输出与第二融合模块上一层上采样层输出进行融 合, 并输出至第二融合模块下一层C 3模块; 第四融合模块将主干网络层第六层输出、 第二融合模块下一层C3模块输出以及第四融 合模块上一层卷积层输出进行融合, 并输出至第四融合模块下一层C3模块, 并经过输出层 的第二预测头 输出第二尺度特 征; 第三融合模块将主干网络层第四层输出与第三融合模块上一层上采样层输出进行融 合, 并输出至第三融合模块下一层C 3模块, 并经 过输出层的第一预测头 输出第一尺度特 征; 第六融合模块将主干网络层第十一层输出与第六融合模块上一层卷积层进行融合, 并 输出至第六融合模块下一层C 3模块, 并经 过输出层的第四预测头 输出第四尺度特 征; 所述C3模块包括3个卷积层加上Bot tleneckCS P模块。 6.一种衣着识别系统, 其特征在于, 包括: 视频获取模块、 视频划分模块、 着色模块、 图权 利 要 求 书 2/4 页 3 CN 115100681 A 3

.PDF文档 专利 一种衣着识别方法、系统、介质及设备

文档预览
中文文档 19 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共19页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种衣着识别方法、系统、介质及设备 第 1 页 专利 一种衣着识别方法、系统、介质及设备 第 2 页 专利 一种衣着识别方法、系统、介质及设备 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 17:28:18上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。