行业要闻 > 正文
多伦多大学开发反人脸识别系统,识别成功率降至 0.5%
2018/6/5 09:21   雷锋网      关键字:多伦多,开发,人脸识别系统,识别      浏览量:
将人脸识别技术应用到前端视频监控摄像机上,可能会打破隐私及实用性之间的平衡。假设美国警方有若干台这样的安防摄像机,同时拥有可疑人员的“黑名单”照片库,那么其他任何人如果与这些可疑人员有一些相像,一旦进入警察的安防摄像机的镜头之内,都有可能受到警务人员的盘问。而大多数美国人不希望生活在那样的世界里。

“刷脸”,作为一种个人身份鉴别技术,在深度学习等技术的护持下精度得以大幅提升,在LFW上,各大玩家在无限制条件下人脸验证测试(unrestricted labeled outside data)中提交的成绩普遍能够达到99.5%以上。

人脸识别技术日益成熟的背后,作为自带AI落地基因的安防行业(数据大、高试错容忍度),这几年,天网工程广泛铺开、智能系统全局应用,城市秩序得到了更为高效的管理和防护,民生需求得到了更为及时的处理和反馈,违反乱纪的行为能被精准识别和处罚。

与此同时,人脸识别系统的应用也颇受争议。

在大洋彼岸的美国,亚马逊因向美国执法机构提供人脸识别技术而遭到某联盟的谴责。该联盟表示,“亚马逊以十分低廉的价格向美国警方提供人脸识别服务,可能会导致美国公民的私人数据被滥用及隐私遭到侵犯”。

在他们看来,将人脸识别技术应用到前端视频监控摄像机上,可能会打破隐私及实用性之间的平衡。假设美国警方有若干台这样的安防摄像机,同时拥有可疑人员的“黑名单”照片库,那么其他任何人如果与这些可疑人员有一些相像,一旦进入警察的安防摄像机的镜头之内,都有可能受到警务人员的盘问。而大多数美国人不希望生活在那样的世界里。

从这来看,技术应用的双刃剑在人脸识别的落地上就得以体现,且不说人脸识别技术发展对于人类来说优多(安全)还是劣多(隐私),硬币抛下落地的可能性还是得到了平衡。

近日,多伦多大学教授Parham Aarabi和他的研究生Avishek Bose开发了一种算法,通过对图像进行“光转换”,可以动态地破坏人脸识别系统。

与上述联盟控诉亚马逊的理由一样,这位大学教授也考虑到了隐私问题,“随着人脸识别技术越来越先进,个人隐私成为了一个真正急需解决的问题,这就是反人脸识别系统被研发的原因,也是该系统的用武之地。”

根据Aarabi的说法,他们主要采用了对抗训练(adversarial training)技术,使得两个神经网络相互对抗,一个神经网络从数据中获取信息(人脸数据),另一个神经网络试图去破坏第一个神经网络执行的任务。

据悉,他们的算法是在包含不同种族,不同光照条件和背景环境下的超过600张人脸照片的数据集上进行训练的(业界标准库),两个神经网络相互对抗会发形成一个实时的“过滤器”,它可以应用到任何图片上。因为它的目标——图像中的单个像素是特定的,改变一些特定像素,肉眼是几乎无法察觉的。比如说检测网络正在寻找眼角,干扰算法就会调整眼角,使得眼角的像素不那么显眼。算法在照片中造成了非常微小的干扰,但对于检测器来说,这些干扰足以欺骗系统。

“此前多年,这些算法必须由人类去定义,现在的神经网络可以自主学习。目前我们的算法将人脸识别系统中被检测到的人脸的比例降低到了0.5%。我们希望在APP或网站上提供这种神经网络系统,这是一个非常有意思的领域,有着非常大的潜力市场,”Aarabi教授说道,“另外研究报告也将在2018年IEEE国际多媒体信号处理研讨会上发表”。

其实,破坏人脸识别产品识别率的产品并不少见。早在2016年,卡内基梅隆大学的研究人员就设计了一种眼镜框,可以误导面部识别系统,使其产生错误的识别。

该类软件在学习人脸的模样时,它非常依靠于特定的细节,如鼻子和眉毛的形状。卡内基梅隆大学打造的眼镜并不只是覆盖那些脸部细节,还会印上被计算机认为是人脸细节的图案。雷锋网雷锋网

微信扫描二维码,关注公众号。