当前位置:经济频道首页 > 经济要闻 > 正文

谷歌给AI定了七条规则,包括不开发武器AI、纳入隐私设计原则等

2018-06-08 14:39:18    第一财经APP  参与评论()人

面对内部数千员工的抗议,以及外部学术界的批评和媒体的曝光,谷歌周四终于发布使用AI的七项原则,承诺不会将其人工智能用于会造成“整体伤害”的武器、技术和非法监视。

涉及AI的七项原则包括对社会有益,避免制造或加强不公平的偏见,提前测试安全性,对人负责,保证隐私,坚持科学高标准以及从主要用途、技术独特性等方面来考虑。

这七项原则是为了平息外界对谷歌Maven项目(Project Maven)的关注。Maven是美国国防部将人工智能应用于无人机的举措。

该项目于去年9月开展,根据合同,国防部将使用谷歌AI技术来分析无人机镜头。这是谷歌云业务负责人黛安·格林(Diane Greene)推动的一项重要举措,即向政府提供云服务,该业务利润丰厚,而目前由亚马逊和微软公司统治。

但是,该项目在内部开展不久后,便遭到谷歌内部员工的抵制。4000多名员工联名上书,要求取消Maven项目合同,理由是谷歌有避免军事工作的历史,以及对自动武器的担忧。

随着事件不断发酵,以及媒体不断披露细节,黛安于上周五宣布,一旦该合同失效,将不会继续合作。黛安称,“这是一项为期18个月的合同,因此它将于2019年3月结束”,过期将不再续约。

周四,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)在一篇博客文章称,谷歌不会在可能造成“整体伤害”的武器、技术和非法监视领域设计或部署AI。他称,“在存在重大伤害风险的情况下,我们只会在收益远超风险的情况下继续,并且会纳入适当的安全限制;不会部署故意导致或直接影响人身伤害的武器或其他技术;不会违反国际规范,部署收集或使用信息进行监视的技术,也不会部署违反国际法和人权原则的技术。”

关键词:谷歌AI

相关报道:

    404 提示信息
    404

    您访问的页面找不回来了!

    返回首页
      您感兴趣的信息加载中...

    相关新闻