【时讯】暴力伤医事情屡禁不止:全国20天连发12起伤医案
本篇文章1363字,读完约3分钟
新华社记者李宓
2009年,许多亚裔美国消费者抱怨尼康的“眨眼提醒”功能总是错误地提醒他们拍照时眨眼;2015年,谷歌公司(Google Inc .)开发的一款基于面部识别技术的图像应用,将用户的一位黑人朋友标记为“猩猩”。
人脸识别技术越来越先进,渗透到我们的日常生活中。有些人乐观地认为“擦脸”的时代即将到来。但是“擦脸”真的可靠吗?至少就目前而言,还有一个问号。
缺乏准确性
最近,“擦脸”一个接一个地让人尴尬。
在美国,一个组织利用亚马逊的面部识别系统扫描了535名国会议员的面部照片,并将其与相关数据库中的25000张犯罪照片进行了比较。结果,28名国会议员被该系统认定为罪犯。
英国许多城市的警察开始尝试应用面部识别技术。然而,最近公布的数据显示,伦敦警方使用的面部识别系统的错误率高达98%,被批评为“几乎完全不准确”。伦敦警察局长克雷斯达·迪克对此进行了辩护,称她不认为这项技术会导致大量逮捕,但公众“期待”执法机构测试面部识别技术的使用。
英国警方在音乐会、节日或足球比赛中使用面部识别技术。据英国媒体报道,在威尔士加的夫举行的2017年冠军联赛决赛中,警方使用的面部识别系统产生了2400多场比赛,其中2200多场是“假阳性”比赛,即普通人被误认为犯罪嫌疑人。
麻省理工学院媒体实验室的研究人员测试了微软、ibm(国际商用机器公司)和中国视觉技术公司的面部识别系统,让这三个系统来判断1270张照片中人物的性别。结果表明,三种系统对肤色较浅的人的判断错误率小于1%,识别效果较好;然而,深色皮肤女性的判断错误率在21%至35%之间,识别效果较差。
训练数据不理想
对于“媒体实验室”的研究,ibm沃森和云平台业务的总设计师Ruqier Puri表示,人工智能系统深度学习的有效性取决于培训的基础数据。即使人工智能模型本身设计得很好,不令人满意的训练数据也只能导致较高的错误率和有偏见的判断。研究表明,在美国广泛使用的一套面部识别系统训练数据中,75%以上的图像是男性的,80%以上是白人的。
英国《自然》杂志(Nature)在最近的一篇评论文章中还指出,复杂算法的发展将在学术界和工业界受到广泛赞扬,但相对而言,很少有人关注如何收集、处理和分类数据。导致人工智能偏差的主要因素之一是训练中使用的数据质量差。
麻省理工学院的人工智能研究员乔纳森·弗兰克尔(Jonathan frankl)认为,许多用于面部识别的照片,尤其是那些由街道监控摄像头拍摄的照片,质量较差,这也是面部识别技术在实际应用中经常出错的一个重要原因。
担心隐私和安全
除了它自身的技术问题,面部识别的广泛使用也引起了对个人隐私的关注。根据乔治敦大学法律中心关于技术和隐私的报告,目前美国有16个州允许联邦调查局使用面部识别技术将犯罪嫌疑人的照片与相关数据库中的驾照照片进行比较。
美国数字权利保护组织“电子前沿基金会”的珍妮弗·林奇说,许多人不同意警察寻找罪犯比寻找他们自己的照片更多,他们不知道州政府有这样的政策。
出于对隐私和安全的考虑,一些人甚至开发了反监控设备。德国人亚当·哈维(Adam Harvey)在德国举行的混沌通信会议上推出了自己的“面具”产品,比如在衣服上画出令人困惑的图案,这使得面部识别系统很难识别真实的人脸。
标题:【时讯】暴力伤医事情屡禁不止:全国20天连发12起伤医案
地址:http://www.huarenwang.vip/new/20181024/11.html
免责声明:莆田新城网是福建莆田地区知名的本地城市生活门户网站,莆田新城网所著的部分内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,莆田新城网将予以删除。