人工智能与嫌犯追踪
- 来源:百科知识 smarty:if $article.tag?>
- 关键字:人工智能,人脸识别技术,监控 smarty:/if?>
- 发布时间:2020-10-03 17:19
人工智能(AI)已经广泛并且深入地介入人类的生活,其中的人脸识别技术更是渗透和应用于各个领域,比如:司法、刑侦(刑事鉴识)、电子护照及身份证、金融和保险业的自助服务、IT和网络的安全保护等。
近日发生的一件备受关注的案件,也体现了AI特别是人脸识别在警察破案中所起的作用。居住于中国杭州三堡北苑4幢的来女士于2020年7月5日失踪,6日家人报案,23日警方通报来女士已遇害,其丈夫许某某有重大作案嫌疑。从来女士失踪到破案,警方只用了18天时间,原因在于,警方动用了多种刑事鉴识手段,其中就包括AI技术。
杭州警方先后4次地毯式排查1万多平方米的地下车库和附近所有电梯井、水箱、窨井、储物柜、烟道、通风管道,查看近6000小时的监控录像,冲洗38车粪水,走访询问小区6幢单元楼、379户人家、1075位居民……在海量的侦查工作中,警务AI的介入加速了破案进程。
来女士所在的小区有内部监控96个、外围监控近千个,警方在调查中,需要查看、处理的数据量巨大,其中一些就需要AI来进行大数据研判分析。在AI的帮助下,警方判断化粪池可能存在相关证据,最终让真相水落石出。至于AI是如何帮助警方破案的,为了避免其他人模仿作案以及掌握更多反侦查技巧,警方未公布更多细节。
AI能介入刑事鉴识,监控录像功不可没。过去是举头三尺有神明,现在是举头三尺有监控。监控是对人和物的特征和行动的录像记录,但需要人工和AI去辨识。显然,此次警方利用的人脸识别技术中既有直接人脸辨识,也有间接人脸辨识。前者是要查看来女士的去向,后者是要辨识与小区有关的人员是否有作案的可能性。与案情有关的监控录像时长近6000小时,如果没有AI介入,是不可能在短时间内确定来女士的行踪和物证的提取场所的。对监控录像中大量的人物进行识别,也需要在AI的协助下完成。
但是,按照目前的人脸识别技术,即便有完整的正面图像,AI识别有时也会看走眼,更不用说没有头部和正面图像出现的画面,对于这些画面AI几乎毫无办法。因此,可以说,AI在来女士失踪案中起了作用,但还不够,需要警方以人工方式来进行进一步的人物识别,以确定来女士是否走出其居住的小区。
此次刑事鉴识的一个重要信息是,在三堡北苑4幢电梯监控视频中,有一帧只有下半身的图像。如果让AI来辨识这个图像,很难断定这个下半身影像是否为来女士。按照现有的人工智能算法,这种图像很容易被忽略,因为它没有人脸识别中的面部信息,甚至根本不具备任何面部特征。由于下半身的图像没有人脸出现,因此无法动用AI来辨别和确认,唯一的办法就是要靠人工(警察)来辨认。因此,从理论上分析,此次来女士失踪案,最大的可能是AI和人工结合进行刑事鉴识,并锁定来女士并未走出小区。
不过,如果监控录像中出现了来女士的面部影像,AI是否就能准确辨认出目标并且避免误判呢?这要从人脸识别的原理进行分析。
实际上,人脸识别即人脸图像匹配与识别,是把提取到的人脸图像的特征数据与数据库中存储的特征模板进行搜索匹配,并设定一个阈值,当相似度超过这一阈值,就会确认匹配。基于深度学习算法的AI系统可综合运用运动跟踪、人脸检测、人脸识别、大规模人脸检索等技术,借助大数据平台,实现实时视频或离线视频的动态人脸识别、分析和处理,对嫌犯和在逃人员进行筛选、锁定。当采集到的面部信息与后端数据库进行比对,并确认达到阈值后,系统就会发出警告信息。
按照这个原理,在刑事鉴识中需要AI具有非常精确的比对率,否则就有可能引起误检和漏检,而误检率和漏检率也是评判AI是否靠谱的两个重要标准。误检是把无当有,如临床上AI把一张图片上的致密影像判定为肿瘤,这种误检当然会造成误诊,而在刑事案件中的误检会冤枉和误伤好人,并且会放走真正的嫌犯。漏检则是影像中有真正的嫌疑人但未检出。如果在监控视频的快速检索中出现了嫌疑人的影像,但被AI漏掉了,会让整个案件无解,即使有其他证据,也无法形成闭环的证据链来对嫌疑人定罪。
当然,AI的发展可以避免其短板,如对数据做某种更大范围的分布假设,但是这一方面可能造成误检,另一方面也无法保证不满足该假设的样本能被正确分类或预测。因此,AI也不可能把误检率和漏检率降到零。因此,需要AI和人工结合进行刑事鉴识。同样,在医疗、消费等其他领域,如辨别产品的真伪等,也需要两者结合。
即便是有规律可循的AI人脸识别,也会犯错。原因在于,人脸具有类似性,即便个体之间存在差异,但所有人的面部结构都相似,容易让AI误判。此外,人脸还有易变性,除了随年龄增长而出现的面部特征改变外,还可以因为脸部的各种表情而导致同一人有不同的面部特征差异,而且从不同角度观察,人脸的视觉图像也相差较大。再加上光照条件差异(如白天和夜晚,室内和室外等)、一些遮盖物(如口罩、墨镜、头发、胡须等)遮脸,人脸識别也难以准确地识别和匹配个体。
2018年美国公民自由联盟(ACLU)在一次测试中使用亚马逊的人脸识别系统Rekognition,后者将535名美国国会议员中的28人误判为罪犯,错误率达到5.2%。但是,亚马逊回应称,其软件的设计本意是辅助人类工作,造成误判的原因是ACLU在测试中使用了错误的设置,将识别阈值定为80%。一般在警方工作中建议阈值不低于99%,阈值下调就会误检出更多的嫌疑人,反之则会漏掉一些嫌疑人,因此这不是Rekognition的错。
尽管如此,2019年5月14日,美国旧金山城市监督委员会还是以8票对1票通过一项法令,禁止城市工作人员购买和使用人脸识别技术。旧金山成为美国第一个禁用人脸识别系统的城市。后来,美国马萨诸塞州的萨默维尔市也宣布禁止当地警方和市政部门使用面部识别软件,成为美国第二个禁止使用人脸识别技术的城市。
至于在企业、住宅安全和消费等方面应用人脸识别,更是有很多漏洞并受到公众的质疑,比如,担心隐私泄漏。当人脸识别技术越来越普及时,如上班、进小区、取厕纸、点餐、结账、住酒店等都要刷脸,人脸识别的负面作用也会进一步显现。例如,如果人脸信息泄漏后,该怎么换脸?
杭州来女士失踪案进一步说明,AI需要发展,但更需要人的掌控和指挥。
张田勘