首页 > 科技快讯 > 加密技术如何保护个人信息?“隐私计算”成为行业新宠

加密技术如何保护个人信息?“隐私计算”成为行业新宠

编者按:本文来自界面新闻,作者:林北辰,36氪经授权发布。

数据安全、隐私保护一直是互联网全行业的关注焦点,在今年的人工智能大会上,一种较为前沿的“隐私计算”解决方案受到关注。

过去几年,人工智能作为硬核科技,在安防、金融、政务、医疗等领域发挥了巨大价值,但行业人员发现,目前在人工智能领域,无论是深度学习还是机器学习都离不开大数据样本的“喂养”,传统 AI 需要收集样本到一个本地化的平台,然后通过集中化的算力训练出优质的模型。

这种做法带来的问题是,深度学习和样本需要数据的流通,但流通的数据往往没有得到授权。个人轨迹、财产信息等个人隐私甚至关乎国家的关键信息必须得到保护,传统的大数据训练方式颇有漏洞,新的数据保护解决方案亟待出台。

在数字经济趋势和数据安全保护的时代背景下,隐私计算应运而生,并且在2020年得到市场广泛认知。其本质上是利用密码学的手段,实现在数据不出库的情况下进行联合计算、联合建模,以开放且合规的方式充分发挥数据价值。

联邦学习是隐私计算的其中一种解决方式,顾名思义,就是在数据与数据之间,建立一个类似“独立联邦”的地区,数据经过加密后进入联邦,后又根据导出所在地的需求再度编码,最后导出的数据并不是数据本身,而是需求所在地需要的参数。

富数科技CEO张伟奇在人工智能大会现场接受了界面新闻的专访。他对以上技术做了一个较为形象的解释:一些国外 AI 厂商在中国也有业务落地,他们在国外建模也需要中国的数据参与训练,过去传统的数据出境做法是去标签化、脱敏处理等,但近年来不行了,因为涉及到个人隐私、工业信息、国家安全等原因,数据出境越发敏感,而隐私计算技术使用后,可以在数据不出库、不出国的情况下,跨国进行模型的训练,其根本目的是实现数据的“又保护又开放”。

事实上,这个技术的火爆也是发展于国外。在国际市场上,早前Facebook和Google受到欧盟 GDPR 高价罚款一事震动全球,两家企业开始大量投入了隐私计算以达到政策合规。

而在中国,由于数据开放流通与隐私保护和数据安全之间的矛盾日益激化,隐私计算在过去两年获得飞跃式的发展。张伟奇认为,无论是对技术的重视程度,还是政策法规的制定,目前都已超过美国。

6月29日,中国支付清算协会对外发表了《多方安全计算金融应用评估规范》,对多方安全计算等技术进行了详细的定义和规范,被行业认为是隐私计算政策法规落地的重要里程碑。

张伟奇将国内的隐私计算发展分为三个阶段:第一阶段重点是 2020 年,这是一个市场教育年,行业从2019年底的5家(BAT以及富数科技、华控清交)迅速发展到上百家;第二阶段主要是2021年,金标委和信通院制定了工程化安全和性能的检测规范,银行卡检测中心和信通院都各自完成了头部5家的检测,目前市场上全部通过工信部和金标委评测的一共4家,包括腾讯和阿里在内,富数也是其中一家;第三阶段要解决的是不同厂家之间技术不互通的情况。

张伟奇认为,如果不实现技术互联互通,隐私计算不可能成为一个有生命力的行业。但是,由于隐私计算领域内的不同技术具有碎片化的特点,要让众多厂商们的技术互通,隐私计算依然还有很长的一条路要走。

相关推荐

隐私计算:拿什么保护我们的数据安全?
输入法窃取个人信息,用户隐私如何保护?
五问隐私计算:星星之火可以燎原吗?
隐私计算:如何解决数据隐私之痛?|云岫研究
隐私泄露、数据孤岛、数据滥用……「隐私计算」如何解决大数据行业共性挑战?
40款APP被点名批评整改 靠啥保护个人信息和隐私?
金融行业成信息泄漏重灾区,个人信息保护需推动“数据共享”
苹果升级用户隐私保护:阻止广告商跨网站追踪
苹果iOS 15再推隐私保护新功能,意欲何为?
迈向行政规制的个人信息保护:GDPR与CCPA处罚制度比较

网址: 加密技术如何保护个人信息?“隐私计算”成为行业新宠 http://m.xishuta.com/newsview46652.html