▲资料图。图文无关
随着人脸识别技术在安防、支付等领域的应用,不少人享受到了“刷脸”带来的生活便利。但AI换脸软件的出现,却勾起了公众的不安:当人脸被“数据化”之后,它似乎不再为我所独有,而可以通过数据随时随地被还原,这会不会导致某种“失控”?今天的一则新闻则加剧了人们的不安。
据媒体报道,在某网络商城上,有商家公开兜售“人脸数据”,数量达17万条。报道称这些“人脸数据”覆盖2000人的肖像,除了人脸位置的信息外,还有人脸的106处关键点,如眼睛、耳朵、鼻子等的轮廓信息。这其中有明星也有普通市民,还有部分未成年人。而部分当事人表示,对自己“人脸数据”被采集和出售丝毫不知情。
店家称,自己平时从事人工智能的相关工作,因此收集了很多人脸数据,发售出来“挣个饭钱”,并不提供当事人的人名和身份证号等信息。记者举报后,商品被下架。有律师表示,此举已涉嫌侵犯他人隐私权。
一方面是,人脸数据被不知不觉间被采集、上网、交易;另一方面是“换脸”等深度伪造技术不断精进,让人真假难辨。并且,不仅人脸可以伪造,连声音都能“克隆”。近期就有媒体报道,诈骗分子利用人工智能语音生成软件,成功模仿并冒充一家英国能源公司的德国母公司CEO,欺骗其多位同事和合作伙伴“转账”达22万欧元。
实际上,无论是AI换脸软件被质疑、约谈,还是人脸数据被公开兜售,早已根本上触及了人们的隐私底线:当人脸、声音也可被“深度伪造”,那还有什么证据辨别真实?
如果说,对一个人指纹的破解是对身体实体的破解,那么对人脸和声音的破解则是对这个人的数据破解。这意味着,在这个高度依赖互联网的时代,只要能模拟一个人的外貌、声音,犯罪分子就能在网络世界中完成一系列的“个人真实行为”。由此带来的后果是普通人难以承受的。
溯本追源,要想有效预防视频、语音造假诈骗,核心问题还是对人们个人隐私进行有效保护。
对个人而言,关键在于隐私保护意识的确立。之前国内公众普遍缺乏“隐私忧患意识”,对这一问题不够敏感,如今随着个人隐私关联的东西越来越多、越来越与切身利益相关,人们相应的隐私保护意识在提升,但以较真和动用法律武器维权的“观念水位”仍需提升。
而对储存用户数据隐私的企业来说,则需要加强技术手段进行“风险隔离”,通过提高不法分子盗取个人信息的技术门槛,从而削减非法信息获取后的经济价值。相关平台也不妨加强监控,对“敏感商品”建立自动报警机制,防止这类信息公然被兜售。
当然,最重要的还是要仰赖数据保护相关法律的及时更新,对违法犯罪问题的严厉打击,为个人隐私保护筑起坚硬的司法城墙。在这个“看脸”的时代,在数据价值迸发的当下,人们需要更强大、更有力、更具前瞻性的隐私保护条款,保护住这张独一无二的“脸”。
编辑 孟然 校对 刘军