您访问的页面找不回来了!
返回首页- 您感兴趣的信息加载中...
尽管人工智能在近几年取得了巨大的技术进步, 但其实依然还处在婴儿期。正如一个年幼的孩子会模仿周围人的行为,人工智能也正在向人类学习。因此,作为人工智能“父母”的人类,必须确保把反映和尊重我们周围世界的价值观和道德观贯穿于人工智能产品和服务之中。
这就是为什么我们今天必须非常深入地思考人工智能的道德问题。这些道德规范将塑造我们的未来。要负责任地建立人工智能系统,就必须要首先教育我们自己。因此,我们出版了The Future Computed(《未来计算》)一书,来讨论人工智能在社会中的角色。书中阐述了我们认为应该指导人工智能发展的六原则。我最近思考了其中涉及的三个特别重要的问题——偏见、透明度和问责制。
首先,说说偏见。人工智能系统中偏见的形成可能是由于人类自己甚至也没有意识到的来自根深蒂固的文化影响。在训练人工智能系统的时候这些社会偏见就可能会导致对数据集在个人的性别、肤色和年龄假设。
即使对数据集使用无误,要确保人工智能系统能够满足每个人的需求,有时挑战却可能是数据不足,有时是模型和算法不充分。
人工智能反馈给我们很多社会中存在的偏见。但在多元化的社会中,肤色、口音等各种不同的特征和差异也让我们意识到,满足所有人不同的需求是相当复杂的。尽管我们在不断发展、从教训中学习,我们依然有很长的路要走。
如何在编写计算机程序时就不带有和传播这些偏见呢?这是一个比技术本身更大的问题。而我们不会放弃,直到找到确保对所有人都公平的方法。
除此之外,我们必须教导人工智能回答“为什么?”。人类的孩子会自然地问:“为什么?”机器不会。透明——确保我们能够理解并看到人工智能所做的决定——这是一个以伦理为核心的被称为“可解释的人工智能”的范畴,换句话说就是能回答“为什么?”。
想象一下,医生从人工智能算法中获取的数据显示你的家人得了癌症。你会立刻想知道为什么。依据是什么?你会希望医生解释是如何基于肿瘤大小和颜色的数据来得出这个结论的。并且你肯定还希望医生能用一种你能明白的方式来解释。
我们需要了解人工智能是如何得出某个结论的,而不仅仅是一个在没有上下文或解释的情况下输出数据和信息的“黑匣子”。人类需要知道这背后的原因。
最后,除了能够自我解释外,人工智能还必须担负责任。问责制意味着我们不仅要理解人工智能为什么会得出这样的结论,而且要确保人类有直接责任来监督人工智能做出的重要决策。
维护问责制的一个简单方法是创建的人工智能系统不能完全自治。人工智能只是提供了人类用于决策所需要的信息。例如,在发射火箭之前,需要有人按下红色按钮。在做出治疗或手术的决定之前,需要医生征询你的同意。复杂的洞察力由人工智能提供,但最终的决策要由人类做出。这样的人工智能系统就可考虑应用在文化敏感性高、潜在后果影响重大的场境中。
在微软,我们已经为这些挑战做出了很长时间的努力。我们的研究人员建立了公平、负责,和透明的机器学习模型。今天,微软研究院的科学家正在寻找各种办法检测和解决人工智能的偏见。我们已经制定了一套关于人工智能的指导性道德原则和一个名为 Aether 的开发和研究人工智能与道德标准委员会。我们计划未来推出的任何一款人工智能产品都需要先通过Aether的审查。我们共同创立了人工智能合作组织(Partnership on AI),以研究人工智能如何帮助我们解决最具有挑战性的问题。《未来计算》讨论了指导我们人工智能系统的核心原则。
在发展人工智能的同时,我们有责任研究各种问题,使我们的技术为每个人创造利益和机会。我们所要建立的人工智能系统必须能够听到所有人的声音并能在这个多元的世界平等的认识所有的面孔。我们必须确保人工智能的巨大力量伴随着透明度和问责制,把人放在驾驶员的座位上。人工智能带有很大的可能性,我们还有很多工作要做。
(本文首发于微信公众号“微软丹棱街5号”:Microsoft_ARD,澎湃新闻获授权转发,禁止二次转载。原标题:沈向洋:如何确保人工智能不作恶?)