在發布的《合乎倫理的設計: 將人類福祉與人工智慧和自主系統優先考慮的願景》報告中, 共分為八個部部分闡述了新的人工智慧發展問題. 分別是: 一般原則, 人工智慧系統賦值; 指導倫理學研究和設計的方法學; 通用人工智慧和超級人工智慧的安全與福祉; 個人數據和個人訪問控制; 重新構造自動武器系統; 經濟/人道主義問題; 法律.
一般原則涉及高層次倫理問題, 適用於所有類型的人工智慧和自主系統. 在確定一般原則時, 主要考慮三大因素: 體現人權; 優先考慮最大化對人類和自然環境的好處; 削弱人工智慧的風險和負面影響.
人類利益原則要求考慮如何確保AI不侵犯人權. 責任原則涉及如何確保AI是可以被問責的. 為了解決過錯問題, 避免公眾困惑, AI系統必須在程序層面具有可責性, 證明其為什麼以特定方式運作. 透明性原則意味著自主系統的運作必須是透明的. AI是透明的意味著人們能夠發現其如何以及為何做出特定決定.
在關於如何將人類規範和道德價值觀嵌入AI系統中, 報告中表示由於AI系統在做決定, 操縱其所處環境等方面越來越具有自主性, 讓其採納, 學習並遵守其所服務的社會和團體的規範和價值是至關重要的. 可以分三步來實現將價值嵌入AI系統的目的:
第一, 識別特定社會或團體的規範和價值;
第二, 將這些規範和價值編寫進AI系統;
第三, 評估被寫進AI系統的規範和價值的有效性, 即其是否和現實的規範和價值相一致, 相相容.
雖然上述的相關研究一直在持續, 這些研究領域包括機器道德 (Machine Morality) , 機器倫理學 (Machine Ethics) , 道德機器 (Moral Machine) , 價值一致論 (Value Alignment) , 人工道德 (Artificial Morality) , 安全AI, 友好AI等, 但開發能夠意識到並理解人類規範和價值的計算機系統, 並讓其在做決策時考慮這些問題, 一直困擾著人們. 當前主要存在兩種路徑: 自上而下的路徑和自下而上的路徑. 這一領域的研究需要加強.
報告中還指出需要指導倫理研究和設計的方法論, 通用人工智慧和超級人工智慧的安全與福祉, 重構自主武器系統, 以及經濟/人道主義問題等八個人工智慧發展面臨的問題. 報告中收集了超過一百位來自人工智慧領域學術界, 科學界, 以及政府相關部門的思想領袖的意見, 整合了人工智慧, 倫理學, 哲學和政策等多個領域專業知識. 它的修訂版EAD (Ethically Aligned Design) 版本將會在2017年底推出, 報告增至為十三個章節, 含二百五十多個全球思想領袖的精華分享.
IEEE 機器人和自動化協會的主席Satoshi Tadokoro 解釋了他們為什麼想要制定這樣的標準: '機器人和自動系統將為社會帶來重大創新. 最近, 公眾越來越關注可能發生的社會問題, 以及可能產生的巨大潛在利益. 不幸的是, 在這些討論中, 可能會出現一些來自虛構和想象的錯誤資訊. '
Tadokoro 繼續說道: 'IEEE 將基於科學和技術的公認事實來引入知識和智慧, 以幫助達成公共決策, 使人類的整體利益最大化. ' 除了AI倫理標準外, 還有其他兩個人工智慧標準也被引入報告中, 每個項目都由領域專家領導.
第一個標準是: '機器化系統, 智能系統和自動系統的倫理推動標準' . 這個標準探討了 '推動' , 在人工智慧世界裡, 它指的是AI會影響人類行為的微妙行動.
第二個標準是 '自動和半自動系統的故障安全設計標準' . 它包含了自動技術, 如果它們發生故障, 可能會對人類造成危害. 就目前而言, 最明顯的問題是自動駕駛汽車.
第三個標準是 '道德化的人工智慧和自動系統的福祉衡量標準' . 它闡述了進步的人工智慧技術如何有益於人類的益處.
這些標準的實施可能比我們想象的要早, 因為像 OpenAI 和 DeepMind 這樣的公司越來越快地推進人工智慧的發展, 甚至創造出能夠自我學習又擴大 '智能' 領域的人工智慧系統. 專家們認為, 這樣的人工智慧會破壞世界穩定, 導致大規模的失業和戰爭, 甚至轉向創造 '殺人武器' . 最近, 聯合國的重要討論促使人們開始認真思考, 需對將人工智慧技術當作武器使用進行更嚴格的監管.