谷歌开放源代码加密工具 以保持数据集的私密性
不安全的数据库是隐私和安全的首要问题,谷歌现在想要堵住这个漏洞。
这家互联网巨头已经表示,它将开源私有连接和计算,这是一个新的安全多方计算(MPC)工具,旨在帮助组织与机密数据集一起工作。
隐私的工具是构思,从而允许组织贸易数据集和收集总见解对其他各方的机密数据不泄露任何关于个人代表现象数据保持加密的数据,并且只基于数据的计算结果将被揭示。
它的工作原理是使用一种名为私有集相交(PSI)的加密协议。该公司已经在其密码检查Chrome扩展上采用了这种方法,该扩展允许用户将他们的登录凭证与40亿份已泄露的加密凭证进行比对,而无需向任何人(包括谷歌)透露详细信息。
今天的大多数数据集都有诸如电子邮件地址和电话号码之类的字段,可以用来唯一地标识每条记录。在PSI中,这些标识符和相关数据是用私钥加密的。这确保了数据不会被任何第三方破译。
然后,组织之间可以交换这些加密的数据,然后使用各自的私有密钥对标识符进行第二次加密。再次交换这个双重加密的数据,然后与另一方的双重加密数据集连接,以发现两个数据集之间的交集。
例如,谷歌描述了这样一个场景:一个城市想要知道周末火车服务的运营成本是否会增加当地企业的收入。
通过使用Private Join和Compute处理城市的乘客数据集和来自商家的销售点数据集,它允许城市确定在当地商店购物的火车乘客的总数,而不透露任何关于乘客或其购买的身份信息。
谷歌在周三的一份声明中说:“使用这种加密协议,双方可以加密他们的标识符和相关数据,然后将它们连接起来。”然后,他们可以对重叠的数据集进行某些类型的计算,从而从两个数据集中整体地获取有用的信息。所有输入(标识符及其相关数据)在整个过程中都保持完全加密和不可读。”
一旦确定了交叉数据集,就可以对其执行计算(如计数、求和或平均值),以显示汇总统计信息。
但是底层数据仍然使用一种称为同态加密的过程来隐藏,这种加密使得某些类型的计算可以直接在加密的数据上执行,而不必首先对其进行解密。
考虑到数据泄露和其他涉及第三方数据处理的安全事件的数量,这项技术无疑是有前途的。因此,PSI可以成为执行各种数据分析的隐私保护选项,包括跟踪广告活动的有效性,这对谷歌至关重要。
Private Join和Compute的官方声明紧随TensorFlow Privacy之后。TensorFlow Privacy是谷歌的TensorFlow机器学习框架的一个库,它利用不同的隐私,使训练具有强大隐私保障的AI模型变得更容易。