说明:收录25万 73个行业的国家标准 支持批量下载
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202211197446.9 (22)申请日 2022.09.29 (71)申请人 青岛科技大 学 地址 266000 山东省青岛市崂山区松岭路 99号 (72)发明人 王玲玲 赵雪芹 王琳 陆忠锴  张首勋  (74)专利代理 机构 青岛中天汇智知识产权代理 有限公司 37241 专利代理师 韩丽萍 (51)Int.Cl. H04L 9/32(2006.01) H04L 9/08(2006.01) G06N 20/00(2019.01) (54)发明名称 一种去中心化联邦学习方法 (57)摘要 本发明公开了一种去中心 化联邦学习方法, 初始化阶段以公共参数生成器生成公共参数分 发给多个节点, 多个节点协作生成和发布crs, 解 决陷门泄漏问题; 本地阶段对本地训练的结果进 行加密并生成一个本地证明, 用于证明这个梯度 是正确的, 完成m个节点广播的梯度密文和本地 证明, 每个完成节点将它们的秘密划分成n部分, 分别分配到OT表中对应的当前在线节点; 聚合阶 段在线节点在接收到数个梯度密文后计算当前 的聚合结果, 直到m个梯度密文被聚合后在线将 合作恢复秘密用于验证聚合结果的正确性; 更新 阶段每个在线节点验证秘密是否正确, 验证方程 成立节点解密得到聚合的梯度明文并更新全局 模型。 本发 明在不影响准确性的情况下同时提高 了隐私保护和可信性。 权利要求书4页 说明书10页 附图1页 CN 115549922 A 2022.12.30 CN 115549922 A 1.一种去中心化联邦学习方法, 其特征在于: 至少包括初始化阶段、 本地阶段、 聚合阶 段和更新阶段; 其中: 初始化阶段, 公共参数生成器生成公共参数, 分发给多个节点, 多个节点协作生成和发 布crs, 以解决陷门泄漏问题, 最初的全局模型θ0由去中心的联邦学习发起 者发布; 本地阶段, 在去中心的联邦学习任务的每次迭代中, 完成节点使用本地数据集训练新 一轮的本地模型, 对本地训练的结果进 行加密, 并生成一个本地证明, 用于证明这个梯度是 正确的, 完成m个节点广播的梯度密 文和本地证明, 此外, 第一个完整的节 点维护一个 OT表, 该表记录当前的n个在线节点, 每个完成节点将它们的秘密划分成n部分, 分别分配到OT表 中对应的当前在线节点; 聚合阶段, 在线节点在接收到数个梯度密文后, 计算当前的聚合结果, 直到m个梯度密 文被聚合, 而后在线将合作恢复秘密用于验证聚合结果的正确性; 更新阶段, 每个在线节点首先验证秘密是否正确, 如果验证方程成立, 节点解密得到聚 合的梯度明文并更新全局模型。 2.根据权利要求1所述的去中心化联邦学习方法, 其特征在于: 所述本地阶段的具体步 骤如下: 步骤一、 PPG生成公共 参数: 公共 参数生成器选择一个 大素数p, 生成一个p阶素数群 其中p>2λ, λ是安全参数, 并生成三个群G1,G2,GT满足e(G1,G2)→GT, 接着选择两个常数序列a =(a1,a2,...,al+1)和b=(b1,b2,...,bl+1), 每个序列的常数没有交集并且 再选 择l+1正整数(h1,h2,...,hl+1), 定义 这些常数序列和正整数用于加 密和解密节 点的梯度, 最后, P PG将参数 公开; 步骤二、 节点生成crs: 假设有ρ 个节点协同生成crs, 每个节点首先将本地证明的约束 条件从一种NP语言转换为对应的关系, 然后每个节点选择5个随机数xi, αi, βi, γi, δi∈Zq, 计算如下: 其中[ ]1表示G1组中的加密操作, [ ]2表示G2组中的加密操作, 然后每个节点广播 接收来自其 他ρ‑1节点的广播, 并将所有节点的参数聚合如下: 接着, 每个节点计算crs=([σ1]1,[σ2]2)如下 , 其中 , ∈是陈述的数量, 权 利 要 求 书 1/4 页 2 CN 115549922 A 2最后, 将crs=([σ1]1,[σ2]2)公开给所有节点。 3.根据权利要求1所述的去中心化联邦学习方法, 其特征在于: 所述本地阶段, 每个节 点都会执 行以下操作, 以完成DFL任务: 步骤一、 本地模型训练: 假设Ni在第η轮训练中获得了全局模型θη‑1, Ni在数据集Di的子 集上训练本地模型, 得到梯度明文gi, 假设所有节点都共享本地数据过滤算 法Scr()过滤出 错误数据, 首先过滤D ′i, 得到正确的数据集 其中D′i是Di的子集, 然后Ni利用 θη‑1和子集 计算梯度gi, 步骤二、 梯度加密: Ni使用梯度加密算法GEnc对梯度明文gi进行加密, Ni首先使用伪随 机发生器PRG(b)通过随机种子b生成l+1维随机向量ri=(r1,r2,...,rl+1), 接下来, Ni用梯 度gi作为系数, 计算 一个打包的随机数Ri, Ri≡(r1H1G1+r2H2G2+...+rl+1Hl+1Gl+1)mod H 再将Ri作为常数和梯度作为系数来构造了l阶多项式Fi(x)如下, 由于l阶多项式需要至 少l+1个多项式值(x,y)才能恢复, 因此Ni将常数序列a=(a1,a2,...,al+1)作为多项式Fi(x) 的输入, 得到l+1多项式值 Fi(a1),Fi(a2),...,Fi(al+1), 考虑到通信开销, 通 过使用剩余定理 (CRT)打包多 项式值Fi(a1), Fi(a2)、 ..., Fi(al+1), 如下所示: y≡(Fi(a1)H1G1+Fi(a2)H2G2+...+Fi(al+1)Hl+1Gl+1)mod H 其中Hi=H/hi和 使用CRT的同态性质来随机化多 项式值如下: y=CRT(Fi(a1),...,Fi(al+1))+Ri =CRT(Fi(a1),...,i(aFl+1))+CRT(r1,...,rl+1) =(Fi(a1)+r1)H1G1+...+(Fi(al+1)+rl+1)Hl+1Gl+1 然后Ni利用秘密共 享SS将打包的随机数Ri划分成n个部分fi(b1),fi(b2),...fi(bl+1), 其 中用来恢复打包的随机数的所需阈值为 最后, Ni得到梯度密文(Yi,fi(b1),fi (b2),...fi(bl+1)), GEnc中的Yi的计算作为zk ‑SNARK中的约束条件, 简称Yi=GEnc(gi,a), 步骤三、 本地证明的生成: 每个节点都需要通过Groth方案生成一个证明, 无需可信设 置和陷门, 该证明用于更新本地模型和梯度加密的正确执 行, Ni生成的zk ‑SNARK证明如下: 其中, Ni的陈述si是( θη‑1,a,Yi), 而证据ωi是 由于zk‑SNARK中关于本地训练 模型的证明时间长, 可采用简化证明工作加速证明性能, 最后, Ni向所有当前的在线节点广 播 假设m个完成节点广播它们的梯度密文Y1,Y2,...,Ym和n个在线节点执行 聚合操作, 第一个完成节点维护并共享一个记录当前在线节点的在线表OT=(N1,N2,..., Nn), 然后, Ni分发了秘密Ri的部分fi(bj)给OT表中对应的在线节点 Nj, 其中j∈1,2,. ..,n。权 利 要 求 书 2/4 页 3 CN 115549922 A 3

PDF文档 专利 一种去中心化联邦学习方法

文档预览
中文文档 16 页 50 下载 1000 浏览 0 评论 0 收藏 3.0分
温馨提示:本文档共16页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种去中心化联邦学习方法 第 1 页 专利 一种去中心化联邦学习方法 第 2 页 专利 一种去中心化联邦学习方法 第 3 页
下载文档到电脑,方便使用
本文档由 SC 于 2024-02-24 00:59:22上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。