您访问的页面找不回来了!
返回首页- 您感兴趣的信息加载中...
尽管人工智能在近几年取得了巨大的技术进步, 但其实依然还处在婴儿期。正如一个年幼的孩子会模仿周围人的行为,人工智能也正在向人类学习。因此,作为人工智能“父母”的人类,必须确保把反映和尊重我们周围世界的价值观和道德观贯穿于人工智能产品和服务之中。
这就是为什么我们今天必须非常深入地思考人工智能的道德问题。这些道德规范将塑造我们的未来。要负责任地建立人工智能系统,就必须要首先教育我们自己。因此,我们出版了The Future Computed(《未来计算》)一书,来讨论人工智能在社会中的角色。书中阐述了我们认为应该指导人工智能发展的六原则。我最近思考了其中涉及的三个特别重要的问题——偏见、透明度和问责制。
首先,说说偏见。人工智能系统中偏见的形成可能是由于人类自己甚至也没有意识到的来自根深蒂固的文化影响。在训练人工智能系统的时候这些社会偏见就可能会导致对数据集在个人的性别、肤色和年龄假设。
即使对数据集使用无误,要确保人工智能系统能够满足每个人的需求,有时挑战却可能是数据不足,有时是模型和算法不充分。
人工智能反馈给我们很多社会中存在的偏见。但在多元化的社会中,肤色、口音等各种不同的特征和差异也让我们意识到,满足所有人不同的需求是相当复杂的。尽管我们在不断发展、从教训中学习,我们依然有很长的路要走。
如何在编写计算机程序时就不带有和传播这些偏见呢?这是一个比技术本身更大的问题。而我们不会放弃,直到找到确保对所有人都公平的方法。