(19)国家知识产权局
(12)发明 专利申请
(10)申请公布号
(43)申请公布日
(21)申请 号 202211133859.0
(22)申请日 2022.09.19
(71)申请人 西北大学
地址 710069 陕西省西安市太白北路2 29号
申请人 延安大学
(72)发明人 徐雪丽 耿国华 王红珍 王敬禹
周明全 曹欣
(74)专利代理 机构 西安众和至成知识产权代理
事务所(普通 合伙) 61249
专利代理师 李乃娟
(51)Int.Cl.
G06T 5/00(2006.01)
G06V 10/764(2022.01)
G06V 10/774(2022.01)
(54)发明名称
一种基于改进的Tran sformer的秦俑碎块去
噪方法
(57)摘要
本发明公开了一种基于改进的Tran sformer
的秦俑碎块去噪方法, 包括步骤: 1、 对秦俑数据
的点云样本 预处理; 2、 将预处理的点云样本作为
训练集导入输入嵌入模块并映射到高维空间; 3、
将高维空间点云导入Tran sformer编码器的自适
应下采样模块, 用FPS获得相对统一的点作为原
始采样点, AS自动学习每个采样点的偏移并更新
位置信息从而缩小数据量并保留原点云模型的
结 构 属 性 ;4 、将 下 采 样 后 的 结 果 导 入
Transformer的编码器模块, 通过RA模块增强点
云的特征从而实现特征的有效提取; 5、 以
Transformer的解码器的输出作为依据, 使用自
适应采样方法选择更接近干净点云的点来重建
三维表面; 6、 对导入的数据不断迭代训练直到
loss值很小且趋于平稳, 得到去噪后的干净点
云, 对高噪声具有更好的鲁棒 性。
权利要求书4页 说明书9页 附图2页
CN 115456900 A
2022.12.09
CN 115456900 A
1.一种基于改进的Transformer的秦俑碎块去噪方法, 其特 征在于, 包括如下步骤:
步骤1、 对秦俑数据的点云样本进行 预处理从而实现数据增强和标注处 理;
步骤2、 将预处理后的点云样本全部作为训练集, 并分批导入输入嵌入模块并映射到高
维空间;
步骤3、 将高维空间的点云导入改进后的Transformer编码器中的自适应下采样模块,
先用最远点采样算法FPS获得相对统一的点作为原始采样点, 再用自适应邻域采样算法AS
自动学习每个采样点的偏移并更新采样点位置信息, 从而缩小数据量并保留原 点云模型的
结构属性;
步骤4、 将下采样后的结果导入经过改进的Transformer的编码器模块, 通过点云的相
对注意力RA模块增强点云的特 征从而实现特 征的有效提取;
步骤5、 以改进的Transformer的解码器的输出作为依据, 对每个点的流形进行重建并
在每个点对应的流形 结构上按比例进行采样, 选择 更接近干净点云的点重建三维表面;
步骤6、 利用改进的Transformer编码器 ‑解码器架构对导入的数据不断的进行步骤3 ‑
步骤5的迭代训练, 直到损失函数l oss值很小且趋 于平稳, 得到去噪后的干净点云。
2.根据权利要求1所述的基于改进的Transformer的秦俑碎块去噪方法, 其特征在于,
所述步骤1的数据增强包括对数据旋转、 平 移和缩放。
3.根据权利要求1所述的基于改进的Transformer的秦俑碎块去噪方法, 其特征在于,
所述步骤3的自适应邻域采样算法AS包括如下步骤:
步骤3.1、 令Ps为从第N个输入点采样Ns个点构成的点集, 且Ns<N, xi为点集Ps中的采样
点, xi∈Ps, fi是采样点xi的特征, fi∈Fs, 通过k‑NN查询将采样 点xi的邻居分组, 并使用一般
的自注意力机制进行 特征更新;
步骤3.2、 将采样点xi的k个邻居xi,1, ..., xi,k对应的特 征fi,1, ..., fi,k表示为:
式中, A用于 聚合特征, R用于描述采样点xi与邻居点xi,j之间的高级关系, γ用于改变每
个邻居点的特 征维度, 为减少计算 量, 令 γ(xi,j)=Wγfi,j, 关系函数R表示 为:
式中, D'是Co nv的输出通道;
步骤3.3、 对每一个采样点xi使用MLP+Softmax, 获得组内每个点的坐标及特征通道的归
一化权重Wp和Wf, 表示为:
Wp=Soft max(mlp(xi,j)) (3)
Wf=Soft max(mlp(fi,j)) (4)
公式(3)和(4)中, j∈[1,k];
步骤3.4、 通过加权求和运算 实现采样点xi及其特征fi的自适应更新,
与
即为更新后
的点信息, 表示 为:
权 利 要 求 书 1/4 页
2
CN 115456900 A
24.根据权利要求1所述的基于改进的Transformer的秦俑碎块去噪方法, 其特征在于,
所述步骤4中点云的相对注意力RA模块用于计算自注 意力SA模块特征与输入特征之间的相
对注意力特 征, 表示为:
Fra=Fin‑Fsa (7)
式中, Fra为相对注意力特 征, Fin为输入特 征, Fsa为自注意力SA模块特 征;
最终, 相对注意力特征Fra通过网络与输入特征Fin作为整个点 云的相对注意力RA模块最
终输出特征Fout的输入, 表示 为:
Fout=RA(Fin)=relu(bn(mlp(Fra)))+Fin。 (8)
5.根据权利要求4所述的基于改进的Transformer的秦俑碎块去噪方法, 其特征在于,
所述自注意力SA模块特 征表示为:
式中, (Q,K,V)=Fin.(Wq,Wk,Wv); Wq、 Wk和Wv为共享学习的权重矩阵, Q、 K和V分别为通过
输入特征线性变换生成的Query、 K ey和Value矩阵,
为一个query和key向量的维度。
6.根据权利要求4所述的基于改进的Transformer的秦俑碎块去噪方法, 其特征在于,
所述相对注意力特征的计算公式(7)为离散拉普拉斯算子, 在具有N个节点的图G中, N维向
量f表示为:
f=(f1,f2,...,fN) (10)
式中, fi为函数f在节点 i的函数值;
对i点进行扰动, 将它变为任意一个与它相邻的节点j, 则节点j变化到节点i所带来的
增益表示 为:
当边Eij具有权重Wij时, 则:
当Wij=0时, 表示节点 i和节点j不相邻, 则:
最终得到:
式中,
是顶点i的度; wi:=(wi1,...,wiN)是N维行向量;
是N维列向量; wi:f表
示两个向量的内积, 对于所有的N个节点增益累积表示 为:权 利 要 求 书 2/4 页
3
CN 115456900 A
3
专利 一种基于改进的Transformer的秦俑碎块去噪方法
文档预览
中文文档
16 页
50 下载
1000 浏览
0 评论
0 收藏
3.0分
温馨提示:本文档共16页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 SC 于 2024-02-24 00:58:32上传分享