当前位置:经济频道首页 > 科技前沿 > 正文

为避免性别偏见 谷歌AI新工具实行性别代词禁令(2)

2018-11-27 17:52:06    TechWeb.com.cn  参与评论()人

这个系统展示了数十亿人类句子,并且变得善于完成常见的短语,但局限是过于笼统。男性长期以来主导一些领域,如金融和科学,所以这项科技将从数据得出:一个投资者或者工程师是“他”或“他”。这项问题几乎存在于每个主要的科技公司。

兰伯特说,Smart Compose团队约有15名工程师和设计师,他们尝试几种解决方法,但是没有一个被证明是没有偏见的。所以,他们决定最好的解决方案就是最严格的一个:限制范围。兰伯特说,当Smart Compose想要预测输入内容时,性别代词禁令仅会影响不到1%的情况。

谷歌一位负责Gmail和其他服务的工程师称:“我们唯一可靠的技术就是保守。”

谷歌新政策

谷歌这次决定在性别问题上采取安全的做法,是因为该公司一些预测技术引起了引人注目的尴尬事件。

2015年,谷歌因为其图像识别功能将一对黑人夫妇识别为大猩猩而公开道歉。2016年,谷歌更改了搜索引擎自动填补功能,因为此前当用户搜索关于犹太的信息时,谷歌自动提示反犹太问题查询。

谷歌已经在其预测技术上禁止咒骂和种族歧视,还避免提到其业务竞争对手或者悲剧事件。

谷歌的新政策——性别代词禁令也影响到的谷歌智能应答的反应。该服务允许用户立即回复短信和电子邮件,使用诸如“听起来不错”等短语。

谷歌由AI道德团队开发的测试来发现新的偏见问题。在美国以外工作的员工当地寻找文化问题。SmartCompose将很快能够使用他四种工作语言:西班牙语、葡萄牙语、意大利语和法语。

谷歌工程师主管Raghavan称:“你需要很多人力监督,因为每种语言中,表述不妥当的网包含着不同的东西。”(编译/露天)

关键词:

相关报道:

    404 提示信息
    404

    您访问的页面找不回来了!

    返回首页
      您感兴趣的信息加载中...

    相关新闻