专业提供彩票计划的网站!

时时彩计划怎么做_500zcw.net_时时彩预测吧

isy SGD和PATE能满足传统计算机安全原则吗?Ian G

时间:2018-04-26 10:01来源:未知 作者:admin 点击:
按:在上世纪80年代初雷锋网 AI科技评论,人员和军事实验室的年代互联网只用于学术研究,家彼此信任且没有恶意行为网络连接的计算机之间大。样的假设设计出的网络而现在如果有基

  按:在上世纪80年代初雷锋网 AI科技评论,人员和军事实验室的年代互联网只用于学术研究,家彼此信任且没有恶意行为网络连接的计算机之间大。样的假设设计出的网络而现在如果有基于这,在网络攻击中幸存那么它必定不可能。

  世纪80年代初的那种情形机器学习的现状就有点像上,型都还只是研究人员在使用目前大多基于深度学习的模,主要还是在考虑它的学习能力当他们设计这些模型的时候,型是否会遭到黑客的攻击而很少会考虑到这个模。能的研究在业界得到应用但随着越来越多的人工智,也逐渐得到越来越多人的关注机器学习安全与隐私的问题。

   Papernot两人可谓是这个领域的急先锋Ian Goodfellow和Nicolas,ans博客(cleverhans.io自去年两人共同创建了Clever H,器学习安全与隐私问题)后博客上已经有三篇关于机,ans对抗性机器学习样本库两人还建立了cleverh,社区中的学术交流并积极促进研究,善机器学习模型在安全和隐私方面的表现希望与全世界的研究者们共同探索和改。

  私安全原则传统的隐,dfellow等人就分类任务的监督学习问题在机器学习环境下是否还适用?Ian Goo,学习模型(noisy SGD和PATE)讨论了最近出现的两种具备隐私保护的机器,(Saltzer 和 Schroeder)考察了它们是否能满足传统的计算机安全原则。在机器学习环境下仍然值得借鉴他们认为传统的计算机安全原则,原则依照,型还有待改进上述的两个模。

  类任务所谓分,f将样本指向一个类其实就是一个函数,片指向一个数字例如将一张图。义地来说(更广,包含一个概率值每个函数还应,到一个函数g(也就是训练出的模型)在某种程度上接近f为了简单这里就不考虑这个了)而所谓学习就是通过训练得。输入和输出都是已知的监督的意思则是学习的。

  练一个参数函数g(θ机器学习其实就是训,)x,据或者预测输入数据)其中x是样本(训练数,神经网络的权重等参数θ则可以是。个样本x时当输入一,θ和g当给定,别得到损失函数L(g则由g和f之间的差,)θ。g的过程训练模型,寻找合适的θ值其实就是通过,数L(g使损失函,误差容许范围内)θ)最小(或者在。是θ的可微分函数一般来说g和L都,依赖函数的梯度下降因此训练的过程就会。下降(SGD)通过随机梯度,x重复地计算g和L我们就可以用样本,围内的损失函数得到误差容许范。

  方面一,梯度计算来影响θ值训练数据只能通过;方面另一,通常是很难分析的θ最终的灵敏度。添加仔细校准过的噪声来实现隐私的保护这就允许我们通过在梯度计算的过程中。 with differential privacy》中有非常详细的介绍这个想法在M. Abadi等人去年的一篇文章《Deep learning。

  的模型非常有意思另外一种隐私保护。攻破了一个机器学习模型设想如果攻击者千辛万苦,参数却对模型没有任何影响却发现他调整模型的内部,样的心情是什么。这种让攻击者绝望的模型机器学习系综模型就是。

  思想其实很简单PATE模型的,有交集的子数据训练大量教师模型首先它通过训练数据集中相互没,教师系综构成一个;的输出去训练学生模型随后再通过教师系综,赖教师的预测结果学生的训练仅依,们的内部参数而不涉及它。

  模型这种,方面一,题时并不会对学生有很大的影响当教师系综的某个教师出现问;方面另一,模型来得到教师的内部结构攻击者不可能通过攻破学生;合两方面不过结,教师的内部参数即使得到一个,身有太大的影响也不会对模型本。外此,训练完成后一旦学生,(同时也包括它所携带的隐私)事实上我们可以撤掉教师系综。

  的研究在机器学习环境中仍然值得借鉴Ian等人认为传统的计算机安全中,提出的计算机安全十大原则来评价上述两个机器学习的隐私保护模型他们在此想通过Saltzer和Schroeder两人在75年。

  不说不得,出的大部分保护机制和机器学习中的都不一样Saltzer和Schroeder当年提,涉及数据迁移因为当时并不。过数据加密的保护机制不过他们当时描述过通;程度上其实也类似于数据加密通过数据来训练模型在某种。也同样适用于机器学习环境中所以他们当年提出的十大原则。是否符合这十大原则呢?一起和雷锋网AI科技评论来逐一看看那么上述两种隐私保护模型(noisy SGD和PATE)。

  算法思想(添加噪声)极为容易地实现的noisy SGD虽然是通过简单的,机梯度下降(SGD)本身但这些想法会直接影响随,学习算法的核心而SGD是许多。模型做了一个心脏手术所以这无异就相当于给,的影响是很大的这对学习模型,他潜在的威胁可能会造成其。外此,优化和扩展的时候当学习算法进行,要新的noisy SGD你还需要反过来考察是否需。

  oisySGD模型PATE模型相比n,的设计细节会涉及更多,集成了基于GANs的复杂技术尤其是它的变种PATE-G。一方面而另,计细节至关重要这些复杂的设,的训练完全分离却又与老师模型,型的内部结构无关同时也与学生模。

  默认配置应是缺省访问这个原则说明模型的,别是特,将导致拒绝访问当发生错误时。isy SGD和PATE上这个原则似乎很难应用到no,何提出请求的人提供相同的访问权限因为它们通常会在任何情况下向任。

  研究实现了被称为(ε近来也有许多这方面的,异隐私保障δ)的差,为隐私值其中ε,障概率δ为故。步来看不过初,败就会导致隐私丧失这样的保障一旦失,去精确性而不是失。意义上在这个,是故障安全默认这种保障并不。需要更进一步的研究所以在这方面似乎还。

  敏感数据都应该通过保护机制这个原则意味着每一次访问。子来说举个例,后用户必须重新登录在线分钟没有操作。个系统的角度来考虑这个原则需要站在整,y SGD和PATE的分析所以并不适用于对nois。

  问某个关键资源这个原则要求访,个独立的钥匙必须使用多。全默认一样和故障安,isy SGD和PATE上这个原则也很难应用到no,独的外部保护层次它可能更适用于单。

  户在完成操作的过程中只需要最少的权限这个原则要求每个程序/系统的每个用。和PATE中真的是再适合不过了这个原则在noisy SGD。ATE中例如在P,错误也不可能访问到其他教师的训练数据这就意味着每个教师模型即使程序出现。

  多用户系统中该原则要求在,的资源应尽可能得少允许多个用户共享。GD和PATE中在noisy S,学习机制的所有访问对所有训练数据以及,都是相同的隐私参数。不同的训练数据的提供隐私保护但或许可以通过加权的方法来为,用户的隐私需求从而保证不同。

  模型来说就两个,足够的数学、差别隐私以及机器学习的知识noisy SGD的配置需要用户了解,数用户所欠缺的这可能是大多。来说就比较清晰直观了而PATE模型相对,多背景知识它不需要太,训练的机器学习模型说一张图片是猫你想还有什么比如果100个独立,这样的模型更直观呢预测结果也应当是猫。

  时应根据攻击者的资源来进行这一原则要求设计安全方案,事机密的系统例如保护军,绩的系统的安全设计是不一样的其安全设计和保护学校学生成。E的隐私保护受益于在交互时间noisy SGD和PAT,何特定数量的查询攻击者不受限于任。

  采用更复杂的措施来预防更为理想这个原则说明有时记录入侵细节比。面所述如上,ε(,包含了故障的概率δ)-差别隐私,以用来记录故障的原因但是没有任何信息可。录危害方面的问题是非常严重的所以机器学习的隐私保护在记,是理论的缺陷因为它可能,个算法的问题而不是具体某。

本文地址:http://www.2p55.com/shishicaiyuceba/2018/0426/304.html

(责任编辑:admin)
织梦二维码生成器
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
栏目列表
推荐内容