互联网

·

RealAI人脸识别安全研究获央视新闻、广东3·15晚会深度报道

锌媒体报道

 

一副眼镜解锁19款手机的视频,瑞莱智慧RealAI发布的人脸识别安全研究引发社会热议。这一破解原理到底是什么?它的危害边界有多大?面对大规模的广泛应用,人脸识别的安全性如何保障?普通公众又该如何该保障个人隐私安全?在近期央视新闻《法治在线》、广东卫视3·15栏目的专题深度报道中,RealAI团队给出了相应的解答。

632_3c1438eee686029ea09dc72401062a62.png

央视新闻《法治在线》专题报道

632_18f454053318920f8f7195d81bd55c88.png

广东卫视3·15晚会专题报道

一、背后源自深度学习算法结构性缺陷

RealAI技术人员解释到,攻击背后使用的是“对抗样本”技术,通过结合攻击者与攻击对象的图像特征自动生成一张“干扰图案”,对于普通人来说,肉眼能明显识别戴上眼镜的攻击者与攻击对象是有区别的,但算法看来两者的特征数值是相近的。

632_9ae56dbb30dd892d302c447ef01a7e6d.png

而“对抗样本”存在的根本性原因在于深度学习算法的结构性缺陷,黑盒的深度学习导致人类难以理解它的内在逻辑,即便是设计开发人员也无法理解和安全控制算法的输出、算法的执行逻辑,这就导致必然会有一些执行过程跟设计者的意图不吻合,也就给恶意攻击留下了空间。

除了手机的面部解锁,一些常用的人脸识别门禁系统、考勤打卡系统,包括线上APP的身份认证系统也存在相似的安全漏洞。但这也并非是人脸识别技术的专属,RealAI研究人员表示,这本质上是深度学习方法的漏洞,语音识别、文本处理等技术都可能存在被对抗样本攻击的可能。

二、理性看待人脸识别应用,加强技术防护必不可少

虽然对抗算法的研发存在较高的技术门槛,一般的黑灰产从业者难以掌握,但如果存在黑客恶意开源,对抗样本实现的成本就变得非常低,将可能导致财产损失、隐私泄漏等威胁。

但正如清华大学人工智能研究院院长张钹院士所说,面对人脸识别应用也切不可因噎废食,应该在隐私保护、技术便利和公共安全三者之间找到平衡点。

632_970708f2b61e18c88d11bd6b07c2f247.png

在治理手段的选择上,“技术”和“制度”两个层面需要同步推进。一方面是从法律法规、道德伦理层面去限制或者制约人类对人工智能技术的误用或者滥用,第二个方面从技术层面去发展新的技术,克服人工智能算法本身的不安全性和脆弱性。

RealAI目前开展的一系列算法攻防研究,就是采用“以子之矛、攻子之盾”的技术路线,通过攻防对抗不断升级,演练出针对性的防御技术,比如打造出类似于人脸识别系统的防火墙,应用到现有的人脸识别应用上,就可以先于黑客发现并修补漏洞,为人脸识别筑起安全防线。对于普通公众而言,RealAI技术人员则表示,无需过度恐慌,加强并重视日常生活的安全防护工作,比如不在社交媒体平台上发个人正面清晰照,保护好身份证号等重要信息,以及尽可能选择安全级别更高的人脸识别设备。

最后,针对人脸识别这类前沿技术的治理,推动相关技术标准、增强行业自律至关重要,作为安全人工智领域的代表性企业,RealAI也依托自身技术优势, 与公安部、工信部等相关单位开展合作,积极参与到行业规范的工作中,为推动人工智能产业可持续发展贡献力量。


 

向作者提问

  • 最新评论

游客
验证码: 点击我更换图片
全部评论