在发布的《合乎伦理的设计: 将人类福祉与人工智能和自主系统优先考虑的愿景》报告中, 共分为八个部部分阐述了新的人工智能发展问题. 分别是: 一般原则, 人工智能系统赋值; 指导伦理学研究和设计的方法学; 通用人工智能和超级人工智能的安全与福祉; 个人数据和个人访问控制; 重新构造自动武器系统; 经济/人道主义问题; 法律.
一般原则涉及高层次伦理问题, 适用于所有类型的人工智能和自主系统. 在确定一般原则时, 主要考虑三大因素: 体现人权; 优先考虑最大化对人类和自然环境的好处; 削弱人工智能的风险和负面影响.
人类利益原则要求考虑如何确保AI不侵犯人权. 责任原则涉及如何确保AI是可以被问责的. 为了解决过错问题, 避免公众困惑, AI系统必须在程序层面具有可责性, 证明其为什么以特定方式运作. 透明性原则意味着自主系统的运作必须是透明的. AI是透明的意味着人们能够发现其如何以及为何做出特定决定.
在关于如何将人类规范和道德价值观嵌入AI系统中, 报告中表示由于AI系统在做决定, 操纵其所处环境等方面越来越具有自主性, 让其采纳, 学习并遵守其所服务的社会和团体的规范和价值是至关重要的. 可以分三步来实现将价值嵌入AI系统的目的:
第一, 识别特定社会或团体的规范和价值;
第二, 将这些规范和价值编写进AI系统;
第三, 评估被写进AI系统的规范和价值的有效性, 即其是否和现实的规范和价值相一致, 相兼容.
虽然上述的相关研究一直在持续, 这些研究领域包括机器道德 (Machine Morality) , 机器伦理学 (Machine Ethics) , 道德机器 (Moral Machine) , 价值一致论 (Value Alignment) , 人工道德 (Artificial Morality) , 安全AI, 友好AI等, 但开发能够意识到并理解人类规范和价值的计算机系统, 并让其在做决策时考虑这些问题, 一直困扰着人们. 当前主要存在两种路径: 自上而下的路径和自下而上的路径. 这一领域的研究需要加强.
报告中还指出需要指导伦理研究和设计的方法论, 通用人工智能和超级人工智能的安全与福祉, 重构自主武器系统, 以及经济/人道主义问题等八个人工智能发展面临的问题. 报告中收集了超过一百位来自人工智能领域学术界, 科学界, 以及政府相关部门的思想领袖的意见, 整合了人工智能, 伦理学, 哲学和政策等多个领域专业知识. 它的修订版EAD (Ethically Aligned Design) 版本将会在2017年底推出, 报告增至为十三个章节, 含二百五十多个全球思想领袖的精华分享.
IEEE 机器人和自动化协会的主席Satoshi Tadokoro 解释了他们为什么想要制定这样的标准: '机器人和自动系统将为社会带来重大创新. 最近, 公众越来越关注可能发生的社会问题, 以及可能产生的巨大潜在利益. 不幸的是, 在这些讨论中, 可能会出现一些来自虚构和想象的错误信息. '
Tadokoro 继续说道: 'IEEE 将基于科学和技术的公认事实来引入知识和智慧, 以帮助达成公共决策, 使人类的整体利益最大化. ' 除了AI伦理标准外, 还有其他两个人工智能标准也被引入报告中, 每个项目都由领域专家领导.
第一个标准是: '机器化系统, 智能系统和自动系统的伦理推动标准' . 这个标准探讨了 '推动' , 在人工智能世界里, 它指的是AI会影响人类行为的微妙行动.
第二个标准是 '自动和半自动系统的故障安全设计标准' . 它包含了自动技术, 如果它们发生故障, 可能会对人类造成危害. 就目前而言, 最明显的问题是自动驾驶汽车.
第三个标准是 '道德化的人工智能和自动系统的福祉衡量标准' . 它阐述了进步的人工智能技术如何有益于人类的益处.
这些标准的实施可能比我们想象的要早, 因为像 OpenAI 和 DeepMind 这样的公司越来越快地推进人工智能的发展, 甚至创造出能够自我学习又扩大 '智能' 领域的人工智能系统. 专家们认为, 这样的人工智能会破坏世界稳定, 导致大规模的失业和战争, 甚至转向创造 '杀人武器' . 最近, 联合国的重要讨论促使人们开始认真思考, 需对将人工智能技术当作武器使用进行更严格的监管.