您访问的页面找不回来了!
返回首页- 您感兴趣的信息加载中...
危机源于谷歌与美国军方合作的一个机器学习项目——Maven项目。谷歌在该项目中向美国国防部提供用于机器学习应用的TensorFlow API接口,以帮助军事分析人员检测图像中的物体。
双发合作之初,谷歌内部就有员工被点燃了愤怒情绪,认为这次技术合作关乎机器学习发展和使用的道德问题。此后,因为这一项目,谷歌遭到了内部员工上书质疑,人工智能业界、学界也跟进批评。截至美国当地时间5月14日,谷歌已有十几名员工正式因这一项目向谷歌请辞,以抗议公司继续参与军方的Maven项目。同时,学术界有364名人工智能专业人士也联名上书,反对谷歌。
争议焦点:Maven项目
2017年4月,美国军方提出Maven项目。Maven的目标是“加快国防部整合大数据和机器学习”,也被美国国防部称为算法战争跨功能团队(AWCFT:Algorithmic Warfare Cross-Functional Team)。据《华尔街日报》的报道,美国国防部在2017年人工智能相关领域的花费为74亿美元。
Maven的首要任务是帮助美国国防部有效地处理来自全球各地的海量的视频资料。美国国防部每天收集到数量庞大的无人机飞行画面,但人类图像分析师远远跟不上视频数量的增长。因此,国防部希望能利用机器学习来识别无人机镜头中的车辆和其他物体,从而减轻分析人员的负担。在自身资源不足的情况下,国防部转向了学界与业界的人工智能专家合作。
在这一争议项目中,谷歌提供的TensorFlow是一款人工智能领域里的免费开放软件,也是谷歌人工智能战略的关键。它为机器学习工程师提供了进行数据排序和训练算法的框架,并且在整个行业中被广泛使用。
“我们长期与政府机构合作为其提供技术解决方案。这个特定项目是国防部的试点项目,提供开源的TensorFlow API,可以帮助其识别未分类数据中的对象。”谷歌发言人曾就这次合作评论到。
根据国防部的说法,Maven利用最先进的计算机视觉技术,能够自动检测和识别无人机全动态摄像机捕获的38种物体。这种技术目前已经部署在法律执行和军事应用中,用来识别汽车和人等基本物体。
但新技术并非总能带来便利,已经有研究人员发出警告,人工智能技术可能会以不易察觉的方式产生重大偏见。例如,ProPublica新闻网站就曾在一份报道中指出,美国警方用于预测囚犯再度犯法可能性的算法经常表现出种族歧视倾向。
面对质疑,美国军方强调,只会将人工智能作为人类收集情报的合作伙伴。但这并不能保证计算机辅助决策不会引发错误。人类无人机操作员可能过分依赖有缺陷的计算机分析结果,如果没有适当的监督,这些缺陷可能会被忽视。
项目成立之初,谷歌也注意到了这个问题,其发言人当时表公司正在起草一份关于机器学习使用的政策和防护安全措施文件,但据知情人士了解,这份文件的起草还未实施。
舆论压力:谷歌“不作恶”?
谷歌母公司Alphabet原董事长的埃里克·施密特(Eric Schmidt)曾在一次谈话中说到科技圈与军方合作关系的担忧。
施密特表示,“技术社区普遍担心军事和工业结合体,会被作为不正当杀人利器,”同样也是国防创新委员会成员的他补充说,“我不会在军队内部提供Alphabet的东西。”
但谷歌公司在Maven项目中的态度,让谷歌的员工产生了怀疑。他们从一开始的愤怒,逐渐转为失望。
在今年4月初,大约有3100多名谷歌员工签名,向谷歌现任CEO桑达尔·皮查伊(Sundar Pichai)提交了一封信,要求皮查伊立即取消参与Maven项目,并起草并公开一份清晰的政策表明:谷歌和它的合作方不会开发用于战争的技术。
3100多名谷歌员工签名信“谷歌在Maven项目中的相关参与计划将不可挽回地毁灭谷歌的品牌和它吸纳人才的能力。在越来越多的对于人工智能可能会偏激化和武器化的恐惧中,谷歌在获取公众信任方面已经显得力不从心了。这一协议将会使谷歌的声誉面临威胁,并将会使谷歌站在其核心价值观的对立面。”谷歌的员工在信中写到。
不过,这封信在谷歌内部并没有起到作用。
在谷歌员工发出联名信半个月之后,来自谷歌、亚马逊、微软和IBM等科技公司的员工联合发布了一封请愿信,信中称科技公司不应该参与到与战争有关的商业中去,因此谷歌应该中止与美国国防部的合作。
在这封信中,这些科技公司的员工不仅讨论了科技公司参与战争项目的问题,还讨论了用户的数据问题。由于科技公司拥有大量的全球用户敏感数据,科技公司与美国国防部达成的商业协议将打破用户信任。
在学界,也有越来越多的人加入对谷歌的声讨中。5月15日,国际机器人武器控制委员会(ICRAC)向谷歌母公司Alphabet的CEO拉里·佩奇、谷歌现任CEO桑达尔·皮查伊、谷歌云CEO黛安·格林、谷歌云首席科学家、副总裁李飞飞发出了一封公开信,再次要求谷歌停止其与国防部在Maven项目上的合作协议,承诺不去开发军事科技,并保证不将其搜集的个人数据用于军事行动。
学术界给谷歌的公开信信中写到:和许多其他数字技术公司一样,谷歌收集了大量关于用户行为、活动和兴趣的数据。谷歌不能仅利用这些数据改进自己的技术和扩大业务,还应该造福社会。公司的座右铭是“不作恶”,这是众所周知的责任。
“像谷歌这样跨国公司的责任必须与他们的用户国际化相匹配。根据谷歌所考虑的国防部合同,以及微软和亚马逊已经实施的类似合同,这样的做法标志着拥有大量全球敏感私人数据的科技公司与一个国家军队的危险联盟。它们还表明,谷歌未能与全球公民社会和外交机构进行接触,这些机构已经强调这些技术的道德风险。”信中称。
值得一提的是,目前已有364名专家和学者在这封信上签名,签名数量也在不断地增加。
内部面临辞职潮,外部受到越来越多的舆论压力,目前,谷歌尚未做出任何解释。有Facebook和剑桥分析公司(Cambridge Analytica)的丑闻在前,或许谷歌是时候反思自己手上掌握的权利了:如何保证科技不会被用来作恶。毕竟一旦引发道德讨论,失去的不仅是客户,还有用户的信任。