PaddleDTX 是一个基于分布式存储的分布式机器学习技术解决方案。可以解决海量私有数据需要的安全存储和交换难题,可恶意帮助各方突破数据孤岛,实现数据价值最大化。
PaddleDTX的计算层是一个由三种节点组成的网络:Requester、Executor和DataOwner。训练样本和预测数据集存储在由 DataOwner 和Storage节点组成的去中心化存储网络中。这种去中心化的存储网络和计算层由底层区块链网络支持。
金色午报 | 10月26日午间重要动态一览:7:00-12:00关键词:美联储、Libra、XMR、Uniswap
1.美联储和FinCEN邀请公众对加密货币新规则发表评论。
2.Libra Core V1.0.0已于10月17日发布。
3.XMR突破139美元再创历史新高。
4.BCH近1000个区块有731个使用BCHN软件挖取。
5.Uniswap发起二号社区治理提案 计划增加1.2万个空投地址。
6.河北黄骅抓获虚拟货币团伙涉案金额120余万元。
7.话题“央行称数字人民币和微信支付宝无竞争”登上微博热搜。[2020/10/26]
Requester 是有预测需求的一方,Executor 是 DataOwner 授权获得样本数据访问许可的一方,用于可能的模型训练和结果预测。多个 Executor 节点组成一个 SMPC(安全多方计算)网络。Requester 节点将任务发布到区块链网络,Executor 节点授权后执行任务。Executor节点通过DataOwner获取样本数据,后者为数据的信任背书。
金色财经挖矿数据播报 | ETH今日全网算力上涨3.07%:金色财经报道,据蜘蛛矿池数据显示:
BTC全网算力125.434EH/s,挖矿难度16.85T,目前区块高度643008,理论收益0.00000890/T/天。
ETH全网算力207.243TH/s,挖矿难度2575.98T,目前区块高度10629314,理论收益0.00946506/100MH/天。
BSV全网算力2.228EH/s,挖矿难度0.33T,目前区块高度647470,理论收益0.00040386/T/天。
BCH全网算力2.815EH/s,挖矿难度0.39T,目前区块高度647665,理论收益0.00031976/T/天。[2020/8/10]
SMPC 网络是支持并行运行的多个分布式学习过程的框架。未来将支持垂直联邦学习和水平联邦学习算法。
金色财经挖矿数据播报 | BCH今日全网算力下降11.43%:金色财经报道,据蜘蛛矿池数据显示:
ETH全网算力188.208TH/s,挖矿难度2407.03T,目前区块高度9983844,理论收益0.00763244/100MH/天。
BTC全网算力112.531EH/s,挖矿难度15.96T,目前区块高度628504,理论收益0.00001575/T/天。
BSV全网算力1.225EH/s,挖矿难度0.20T,目前区块高度633055,理论收益0.00073448/T/天。
BCH全网算力1.620EH/s,挖矿难度0.23T,目前区块高度633297,理论收益0.00055538/T/天。[2020/5/2]
一个DataOwner节点处理自己的私有数据,在这个过程中使用了加密、分段和复制相关的算法,最后将加密的分片分发到多个Storage节点。Storage 节点通过回答 DataOwner 产生的挑战来证明它诚实地持有数据片段。通过这些机制,可以在不侵犯任何数据隐私的情况下安全地维护存储资源。
金色晨讯 | 石油币将于11月5日向委内瑞拉公众出售:1.Ripple:大规模采用区块链的转折点正快速逼近
2.韩国国家政策委员会主席呼吁ICO合法化
3.石油币将于11月5日正式向委内瑞拉公众出售
4.票务平台Big Tickets接受BCH付款
5.圣路易斯联储副主席:私有加密货币或解决“特里芬难题”
6.IBM、英特尔等助力UCSD建立区块链研究中心
7.立陶宛财政部长:将于明年发布加密行业监管修正案
8.IMF副总法律顾问:加密资产可使全球金融体系更高效
9.比特币ATM在美国犹他州涌现[2018/10/3]
训练任务和预测任务将通过区块链网络广播到 Executor 节点。然后所涉及的 Executor 节点将执行这些任务。DataOwner节点和Storage节点在监控文件和节点健康状态时,以及副本持有证明的challenge-answer-verify过程中,通过区块链网络交换信息。
目前,XuperChain 是 PaddleDTX 支持的唯一区块链框架。
PaddleDTX 的开源版本支持垂直联邦学习(VFL)算法,包括两方线性回归、两方逻辑回归和三方 DNN(深度神经网络)。DNN的实现依赖于PaddleFL框架,PaddleFL 提供的所有神经网络模型都可以在 PaddleDTX 中使用。未来更多算法会开源,包括多方 VFL 和多方 HFL(水平联邦学习)算法。
训练和预测步骤如下所示:
样品准备
FL 任务需要指定将用于计算或预测的示例文件,这些文件存储在去中心化存储系统(XuperDB)中。在执行任务之前,执行者(通常是数据所有者)需要从 XuperDB 中获取自己的示例文件。
样品对齐
VFL 训练和预测任务都需要样本对齐过程。即使用所有参与者的 ID 列表查找样本交叉点。训练和预测是在相交的样本上进行的。该项目实施了 PSI(Private Set Intersection)来进行样本对齐,而不会泄露任何参与者的 ID。
训练过程
模型训练是一个迭代过程,它依赖于两个奇偶校验样本的协同计算。参与者需要在许多训练时期交换中间参数,以便为每一方获得适当的局部模型。
为确保每个参与者数据的机密性,Paillier 密码系统用于参数加密和解密。Paillier 是一种加法同态算法,它使我们能够直接对密文进行加法或标量乘法。
预测过程
预测任务需要模型,因此需要在预测任务开始前完成相关的训练任务。模型单独存储在参与者的本地存储中。参与者使用自己的模型计算局部预测结果,然后收集所有部分预测结果以推导出最终结果。
对于线性回归,可以在收集所有部分结果后执行去标准化过程。这个过程只有有标签的一方才能完成。所以所有的部分结果都会被发送给有标签的一方,它会推导出最终结果并将其作为文件存储在 XuperDB 中供请求者使用。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。