您访问的页面找不回来了!
返回首页- 您感兴趣的信息加载中...
信中写到:和许多其他数字技术公司一样,谷歌收集了大量关于用户行为、活动和兴趣的数据。谷歌不能仅利用这些数据改进自己的技术和扩大业务,还应该造福社会。公司的座右铭是“不作恶”,这是众所周知的责任。
“像谷歌这样跨国公司的责任必须与他们的用户国际化相匹配。根据谷歌所考虑的国防部合同,以及微软和亚马逊已经实施的类似合同,这样的做法标志着拥有大量全球敏感私人数据的科技公司与一个国家军队的危险联盟。它们还表明,谷歌未能与全球公民社会和外交机构进行接触,这些机构已经强调这些技术的道德风险。”信中称。
今年4月份,还曾有逾50名顶尖的人工智能研究员宣布,向韩国科学技术院发起抵制。此前,这家韩国一流大学和一家军工企业合作开设了人工智能实验室。发起抵制的研究员称,这是一所“AI武器实验室”。
如何确保AI技术不会用来作恶
在内部员工给予辞职压力,以及外部媒体、学术界的监督下,谷歌最终做出了妥协。公布AI使用指导原则后,谷歌员工表示了欢迎。
Google大脑研究员Dumitru Erhan就在自己的推特上表示:“看见这个出来了好开心”。
谷歌现任AI负责人杰夫·迪恩在自己的推特账号上,除了分享了谷歌发表的这份原则之外,还提到为了真正践行这些原则,他们还提出了一套技术实践指南,指导科学家和工程师们在构建AI产品的时候应该注意什么。
DeepMind联合创始人穆斯塔法(Mustafa Suleyman)尽管自己没有发表观点,但在推特上转发了人权观察组织(Human Rights Watch)的话:各国政府应该关注到科技行业的最新动态,开始就禁止全自动武器展开协商,制定新的国际法规。
员工的欢迎是一方面,但在实际中谷歌率先做出的这套原则是否真的使用,又是另一个问题了。《纽约时报》的文章称,由于谷歌此前一再强调自己为国防部所做的工作并非出于“进攻目的”,这些指导原则能否将该公司排除在类似Maven的合同之外,尚不清楚。