当前位置:经济频道首页 > 正文

交大教授回应看脸识罪犯质疑:美国学者扭曲初衷,硬找假想敌(2)

2017-05-10 10:23:47    澎湃新闻  参与评论()人
COMPAS预测重复犯罪概率
《华盛顿邮报》撰文称,如果COMPAS算法按照公司本身的定义确实是“公正的”,即给予同等分数的黑人或白人嫌疑犯重复犯罪的概率相同,那么造成ProPublica测得的偏差的实际原因,是黑人嫌疑犯的整体重复犯罪率确实更高。
而Blaise Agüera y Arcas等三人的文章里还点名批评了一家以色列初创企业Faception。据《华盛顿邮报》报道,该公司已与某国土安全机构签署合同,协助识别恐怖分子。Faception宣称他们开发的系统能通过人脸分析鉴别恐怖分子的成功率超过80%,并能成功识别出2015年11月巴黎恐怖袭击11名犯罪嫌疑人中的8人。

Faception识别人脸
Faception的首席执行干Shai Gilboa告诉媒体:“我们的个性是由DNA决定的,也会体现在脸上。这是一种信号。运用先进的机器学习技术,我们开发出了15个分类标准,每种标准都代表了一种人格,是一些个人特征和行为的集合。我们的算法可以针对每个人对这些人格的契合程度打分。”
除了恐怖分子之外,Faception宣称他们的算法还可以用于识别恋童癖和白领罪犯。
不是算法有歧视,而是人类有偏见
基于美国特殊的历史和文化,种族问题一直容易挑动敏感的神经。而在上述的谷歌人脸识别BUG和COMPAS断案系统中,媒体都分外关注黑人族裔这一“少数派”遭受不平等的算法。Blaise Agüera y Arcas等三人的文章中也一再强调,不应用看似客观公正的算法替人类的歧视“洗白”。
事实上,近年来已有越来越多的学者开始认识到算法并不客观。英国巴斯大学教授Joanna Bryson上个月发表《科学》杂志上的一项研究指出,AI也会表现出各种偏见和歧视,这些偏见涉及种族、性别、年龄等。Joanna Bryson说道,“人们会说实验说明AI有歧视。不是的。这其实说明我们人类有歧视,被AI习得了。”
武筱林也告诉澎湃新闻(www.thepaper.cn),“我们说机器作判断时,没有偏见,当然是假设数据的标记是公平的。机器不会纠正人在输入数据标记中的偏差。”
人类偏见会作为数据被人工智能“习得”这一点,在聊天机器人上体现得淋漓尽致。2016年3月,微软的聊天机器人Tay(小冰的美国姊妹版)在推特上线,被设定为可以与任何@她的推特用户聊天。短短24小时后,一个甜美、礼貌的“小姑娘”竟然开始脏话连篇,甚至爆出不少种族主义和性别歧视的言论。这个被网民调教速成的“AI希特勒”引发网民震惊,被微软草草关进“小黑屋”。

被“教坏”的Tay
另有一部分研究者指出,黑人这样的“少数派”可能会遭受不平等算法的最主要原因是,训练数据集中代表这些“少数派”的样本太少了,因而算法对这部分人群的训练不够成熟,往往会做出不准确的结论。而许多算法开发者自己没有意识到这一点。
机器人觉得白人更美?
武筱林告诉澎湃新闻(www.thepaper.cn),他在学界听过一个说法,说现在关于人工智能伦理的会议比关于人工智能本身的会议还要多。
由于研究犯罪概率遭受了许多压力,武筱林虽然仍将继续挖掘计算机视觉在模拟人类感知上的潜力,但会将研究主题转向其他方向。他在那篇论文之后上传在arXiv上的研究题为Automated Inference on Sociopsychological Impressions of Attractive Female Faces(《自动推断有吸引力的女性面孔造成的社会心理学印象》)。
这项研究考察了计算机视觉在学习人类审美的能力。实验结果发现,经过训练后的算法可以大概率区分性感(hot)与可爱(cute)美女,审美与中国高校男生非常接近。
“我们必须要认识到这一点,就是人工智能有这个潜力,人工智能已经到这一点了。”武筱林说道。
不过,他的这项计算机“审美”研究放在美国社会可能也会面临一些麻烦。2016年,包括英伟达、受微软支持的青年实验室(Youth Laboratories)在内的数家机构共同举办了第一届国际人工智能选美大赛(International Beauty Contest Judged by Artificial Intelligence)。全球范围内的用户只需在相关APP上传自己的自拍照,机器人裁判就会根据面部对称性、皱纹等因素选出最美的获胜组。令人尴尬的是,在来自100多个国家的近6000张自拍中,机器人裁判挑选出来的44个最美的获胜者几乎全是白人,有一小部分亚洲人,只有一个拥有深色皮肤。
“机器人不喜欢深色皮肤。”当时许多新闻报道以此为标题。