差分隐私通过以下几种方式保障数据的安全性:
1.随机噪声的添加:差分隐私通过在传统方法训练得到的机器学习模型中加入随机噪声,得到满足差分隐私定义的机器学习模型。这种随机噪声的添加方式可以有效屏蔽包括成员推理攻击、属性推理攻击等攻击手段,从而保护个人隐私。
2.输出扰动、目标函数扰动和梯度扰动:差分隐私有三种添加随机噪声的方式以保证模型的差分隐私性。输出扰动方法的基本思想是:在通过传统方法训练的机器学习模型参数上加入噪声,得到满足差分隐私定义的机器学习模型。目标函数扰动方法的基本思想是:在机器学习模型所需要优化的目标函数中加入噪声,得到满足差分隐私定义的机器学习模型。梯度扰动方法将通过在梯度加入噪声,因此还可以得到较优的训练模型。
3.保护个人敏感信息:差分隐私不仅保护数据,还保护模型的隐私性。例如,模型的逆向攻击或者成员推理攻击,都可以通过对模型的解析推理窃取原始数据。差分隐私可以有效防止这类攻击。
4.保证攻击者无法分辨由相邻数据集D,D’训练得到的模型:差分隐私的原理是使攻击者对任意数据库都无法判断模型是由哪个数据集训练得到的,以此来保证个人隐私。
5.提高数据精度和可用性:差分隐私保护数据可用性增强专利,该方法包括:获取待保护匿名直方图;将所述待保护匿名直方图转换为目标图像;对所述目标图像进行差分隐私处理,得到处理后的目标图像;对所述处理后的目标图像进行降噪处理,得到降噪后的目标图像。
6.保护用户数据安全和隐私:对于一家人工智能公司来说,数据是他们训练、调整算法和模型的关键,也是安身立命之本。但要安全处理数据,并让数据产生自己想要的结果,并不容易。这时候,差分隐私就能发挥重要作用。它能够在给数据添加噪声的同时,一直计算隐私提升的程度,从而使得增加“噪音”的过程变得更加严谨。它是对所有数据查询、分析过程进行约束,尽可能减少隐私泄露的风险。
7.建立信任机制:《MIT科技评论》评选的2020年十大突破技术中,就有差分隐私。《MIT科技评论》认为未来数据保护的难度会越来越高,解决这个问题的方法之一就是差分隐私,这种技术可以建立信任机制。
8.保护用户隐私:隐私是针对个人的,通过攻击方式获得了一个人的性别是泄露隐私,但是获得整体的性别比例或者一共多少个男性这种不属于泄露隐私范畴。苹果、谷歌、Facebook等公司可能只是需要其用户的性别数量或是比例用于统计分析或者建模,都无需知道每个人的性别,因此,差分隐私可以在保证企业达到分析的目的,又可以保护用户的隐私。
追问
延伸阅读
参考资料为您提炼了 5 个关键词,查找到 90843 篇相关资料。