当前位置:经济频道首页 > 正文

交大教授回应看脸识罪犯质疑:美国学者扭曲初衷,硬找假想敌

2017-05-10 10:23:47    澎湃新闻  参与评论()人
“通过机器学习,分类器能比较可靠地区分罪犯与非罪犯这两个群体的照片。平均来讲,罪犯的内眼角间距要比普通人短5.6%,上唇曲率大23.4%,鼻唇角角度小19.6%。”去年11月上载在预印本网站arXiv上的一篇论文里的研究结论让学界和舆论界都瞬间“炸锅”。
不少人既惊又疑,这是不是《少数派报告》在人工智能时代的预告片?改编自菲利普·迪克短篇小说的电影《少数派报告》讲述了2054年的华盛顿特区,司法部有三位“先知”可以预知犯罪意图,在罪行发生前就逮捕并判决罪犯。
而该论文的作者、上海交通大学图像通信与网络工程研究所教授武筱林已在过去的半年间收到了无数质疑或批评的邮件,近日,他又遭遇了三位美国学者以撰写万字长文的形式隔空喊话。
这篇万字长文名为《相面术的新外衣》(Physiognomy’s New Clothes),于当地时间5月6日发表在新媒体网站Medium上。三名作者,Blaise Agüera y Arcas是机器学习领域的著名工程师,2013年从微软跳槽到谷歌;Margaret Mitchell同样是谷歌的人工智能研究员;而Alexander Todorov则是普林斯顿大学的神经科学教授。
三名美国学者在时隔半年后评价:“随着人工智能和机器学习的高速发展,我们迎来了科学种族主义的新时代。” “基于面部特征的深度学习绝不该应用为‘加速’司法公正的工具,如果真的这么做的话,反而会让不公正长存于世。”文章这样结尾道。

纳粹“种族科学家”在做容貌测定。
5月9日,武筱林向澎湃新闻(www.thepaper.cn)回应道:“那三个美国作者忽略我们原文中的一再声明,我们没有兴趣也无社会科学的学术背景解释我们的结果,讨论其成因。更没有暗示要用于执法司法。他们硬把这些意思强加给我们。”
“在价值观上我们与此文作者没有任何差别,他们歪曲我们的初衷,为了自己找一个假想敌。”武筱林强调。
“看脸识罪犯”研究无实用可能性
这篇饱受争议的论文题为《基于面部图像的自动犯罪概率推断》(Automated Inference on Criminality using Face Images)。在实验中,武筱林和其博士生张熙选取了1856张中国成年男子面部照片,其中730张是已经定罪的罪犯身份证照片(330张来自网上的通缉令,400张由一家签署过保密协议的派出所提供),其余1126张是在网络上抓取的普通人照片。经过机器学习,算法鉴别出犯罪嫌疑人的准确率达到87%。

武筱林研究使用的照片样本。a组为罪犯,b组为非罪犯。
在论文的导语部分,武筱林和张熙声明:“在本文中,我们无意也不够格去讨论社会偏见问题。我们只是好奇,全自动的犯罪性推定能有多高的准确率。一开始我们的直觉是机器学习和计算机视觉会推翻相面术,但结果是相反的。”
而论文中的87%准确率,只是在学术层面上得到了比较显著的相关性。一方面,这并不能解释任何因果关系,即到底是长相决定了天生的犯罪性,或者是人类社会对长相的歧视促成了犯罪概率的差异,都留待社会科学的解读。另一方面,这个数据也完全不具备应用可能性。舆论对其研究实用性的关注,甚至有网友建议他把这项研究交给纪检委,都让武筱林觉得哭笑不得,十分“跑偏”。
这是因为,基于中国千分之几犯罪率的背景条件,实验中87%的真阳性若用于实用,判断正确率将非常低。此外,这项研究本身就存在许多值得商榷的地方。比如,实验样本不够大,容易造成机器过度学习。

平均来讲,罪犯的内眼角间距要比普通人短5.6%,上唇曲率大23.4%,鼻唇角角度小19.6%。
虽然武筱林团队的研究成果无意也无法用于现实应用,但近来,人工智能领域确实出现了类似应用的苗头。而在人脸识别上惹出伦理官司的也绝非别无分号,这次站在政治正确性高地的Blaise Agüera y Arcas和Alexander Todorov供职的谷歌就曾栽过一个大跟头。
黑人被识别为 “大猩猩”
2015年,谷歌推出了相册应用Google Photos。该应用除了备份、整理照片之外,还会自动为照片添加标签,以便用户快速查找。
然而,就是这个基于图像识别技术的自动标签功能捅了篓子。纽约的一名黑人程序员Jacky Alcine惊讶地发现自己和黑人朋友的自拍照被Google Photos打上了“大猩猩”(Gorillas)的标签。他将截图放上了推特,谷歌第一时间做出了道歉,将“大猩猩”这个标签暂时撤出系统,并以最高优先级解决这个问题。

黑人自拍照被Google Photos打上了“大猩猩”(Gorillas)的标签
相关技术人员指出,谷歌可能并没有提供足够的大猩猩照片供机器学习到其中的差别。不过,也有其他网友安慰Alcine道,自己的照片也曾被识别为“猫”或“马”。
以色列初创企业“看脸识恐怖分子”
或许有人会说,一个黑人的照片被标签为“大猩猩”的事件不应该被过分解读,就像一个日本人的照片被标签为“猫”一样,只是谷歌闹出的一个笑话。但如果司法和国土安全系统也参考了这些可能会犯错的系统,还是笑话吗?正如三位美国作者在长文中指出的,武筱林研究中最可怕的一点,是将“算法”和“法律”这两样看上去客观权威的东西相结合。
2016年夏天,一家名为Northpointe的密歇根公司被推向了舆论的风口浪尖。美国各地都有法庭在使用这家公司的AI产品COMPAS,以评估某个犯罪嫌疑人再次犯罪的概率。法庭作出判决或保释决定时会参考COMPAS的评估意见。
COMPAS的评估系统基于超过100个因素,包括年龄、性别、犯罪历史等,给嫌疑犯给出一个1到10区间内的评分,分数越高越危险,但因素里并不包含种族。然而,非营利性民间新闻网站ProPublica指出,对于那些实际上没有重复犯罪的嫌疑犯,黑人被打高分的概率要比白人大。因此,ProPublica指责COMPAS作为内嵌有种族歧视的AI系统,不应再作为法庭的参考。