当前位置:经济频道首页 > 经济要闻 > 正文

微软全球执行副总裁沈向洋:如何确保人工智能不作恶?

2018-07-05 09:20:46      参与评论()人

除此之外,我们必须教导人工智能回答“为什么?”。人类的孩子会自然地问:“为什么?”机器不会。透明——确保我们能够理解并看到人工智能所做的决定——这是一个以伦理为核心的被称为“可解释的人工智能”的范畴,换句话说就是能回答“为什么?”。

想象一下,医生从人工智能算法中获取的数据显示你的家人得了癌症。你会立刻想知道为什么。依据是什么?你会希望医生解释是如何基于肿瘤大小和颜色的数据来得出这个结论的。并且你肯定还希望医生能用一种你能明白的方式来解释。

我们需要了解人工智能是如何得出某个结论的,而不仅仅是一个在没有上下文或解释的情况下输出数据和信息的“黑匣子”。人类需要知道这背后的原因。

最后,除了能够自我解释外,人工智能还必须担负责任。问责制意味着我们不仅要理解人工智能为什么会得出这样的结论,而且要确保人类有直接责任来监督人工智能做出的重要决策。

维护问责制的一个简单方法是创建的人工智能系统不能完全自治。人工智能只是提供了人类用于决策所需要的信息。例如,在发射火箭之前,需要有人按下红色按钮。在做出治疗或手术的决定之前,需要医生征询你的同意。复杂的洞察力由人工智能提供,但最终的决策要由人类做出。这样的人工智能系统就可考虑应用在文化敏感性高、潜在后果影响重大的场境中。

在微软,我们已经为这些挑战做出了很长时间的努力。我们的研究人员建立了公平、负责,和透明的机器学习模型。今天,微软研究院的科学家正在寻找各种办法检测和解决人工智能的偏见。我们已经制定了一套关于人工智能的指导性道德原则和一个名为 Aether 的开发和研究人工智能与道德标准委员会。我们计划未来推出的任何一款人工智能产品都需要先通过Aether的审查。我们共同创立了人工智能合作组织(Partnership on AI),以研究人工智能如何帮助我们解决最具有挑战性的问题。《未来计算》讨论了指导我们人工智能系统的核心原则。

在发展人工智能的同时,我们有责任研究各种问题,使我们的技术为每个人创造利益和机会。我们所要建立的人工智能系统必须能够听到所有人的声音并能在这个多元的世界平等的认识所有的面孔。我们必须确保人工智能的巨大力量伴随着透明度和问责制,把人放在驾驶员的座位上。人工智能带有很大的可能性,我们还有很多工作要做。  

(本文首发于微信公众号“微软丹棱街5号”:Microsoft_ARD,澎湃新闻获授权转发,禁止二次转载。原标题:沈向洋:如何确保人工智能不作恶?)

相关报道:

    404 提示信息
    404

    您访问的页面找不回来了!

    返回首页
      您感兴趣的信息加载中...

    相关新闻