您访问的页面找不回来了!
返回首页- 您感兴趣的信息加载中...
这份草案首先为“可信赖人工智能”提出了一个官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。
围绕这两大要素,草案给出了“可信赖人工智能”的框架。草案强调,其目的不是给出另一套人工智能的价值和原则列表,而在于为人工智能系统提供具体实施和操作层面的指导。
草案共37页,第一章通过阐述人工智能应该遵守的基本权利、原则和价值观,试图确保人工智能的道德目的。根据第一章所阐述的原则,第二章给出了实现“可信赖人工智能”的准则和详细要求,既涉及道德目的,也涉及技术稳健性,既有技术层面的要求,也有非技术层面的要求。第三章则为“可信赖人工智能”提供了一张具体但非穷尽的评估列表。
草案指出,其提出的准则并非旨在取代任何形式的政策和规章,同时,这些准则应该被视为活文件,需要定期更新以适应技术发展的需求。
草案的一大亮点在于其特辟一个章节讨论人工智能所引发的争议性问题。这些问题引起了欧盟人工智能高级别专家组的激烈讨论且尚未在组内达成一致意见。
位于列表第一的争议性问题是“未经知情同意的识别”。有迹象表明利用人脸识别对公民进行监控的情况开始在欧洲出现。不久前,英国警方宣布,他们正在伦敦对圣诞节的购物者们进行人脸识别的测试。人工智能中的人脸识别等技术使得公共或私人组织能够有效的识别个人。草案认为,“为了维护欧洲公民的自主权,人工智能的这一使用需要得到适当的控制”。具体而言,区分个体识别与个体跟踪、目标监视与大规模监视对于实现“可信赖人工智能”至关重要。