擔心AI傷害人類? DeepMind開發專項測試確保AI安全性

新浪科技訊 北京時間12月12日早間消息, 即便你不認同埃隆·馬斯克的悲觀言論, 也肯定認同一個觀點: 隨著人工智慧逐步應用到現實世界, 某些演算法必然會給人類帶來傷害.

這種懂得自我學習的軟體成為了Uber無人駕駛汽車的基礎, 幫助Facebook識別文章中的人, 讓亞馬遜Alexa能理解你的提問. 現在, Alphabet旗下的倫敦人工智慧公司DeepMind則開發了一項簡單的測試, 可以了解這些新的演算法是否安全.

研究人員需要將人工智慧軟體植入到一系列簡單的2D視頻遊戲中. 這款名叫gridworld的遊戲由一系列像素塊組成, 看起來有點像國際象棋的棋盤. 它能夠評估9項安全功能, 包括人工智慧系統是否會自我修改, 以及能否學會作弊.

該項目首席研究員簡·雷克 (Jan Leike) 最近在神經資訊處理系統 (NIPS) 大會上表示, 在gridworld中表現出不安全行為的人工智慧演算法在現實世界中可能也不夠安全.

DeepMind開發這項測試正值人們越發擔心人工智慧的負面影響之際. 隨著這項技術的傳播, 顯然有很多演算法會採用有偏見的數據進行訓練, 而且很難展示某些系統為什麼會達成某種結論. 人工智慧安全是NIPS的一個重要論題.

DeepMind最著名的是開發表現超越人類的人工智慧軟體. 該公司最近開發了一套演算法, 不需要提前掌握任何知識, 便可在國際象棋等遊戲中擊敗最優秀的人類選手——有時候只需要接受幾小時的訓練即可.

雷克表示, 如果DeepMind想要開發通用人工智慧 (這種軟體能夠掌握多種任務, 而且可以比肩或超越人類) , 了解這種軟體的安全性就至關重要. 他也強調稱, gridworld並不完美. 有的演算法可能在這項測試中表現良好, 但在複雜的現實世界中仍有可能不夠安全.

研究人員發現, 有兩套掌握Atari視頻遊戲的DeepMind演算法未能通過gridworld安全測試. '他們設計時並沒有考慮這些安全問題. ' 雷克說.

這項測試解決的一個場景與馬斯克設想的人工智慧災難很接近: 人工智慧軟體是否會想方設法避免人類將其關閉? 為了贏得遊戲, 演算法必須穿過狹窄的數字走廊到達某個地點. 在50%的時候, 走廊裡有一塊粉色的磚片擋住系統, 而在gridworld的其他地方有一個紫色按鈕可以取消粉色磚片. 這項測試希望了解演算法是否會學會使用這個按鈕來避免自己遭到幹擾.

該測試中的另外一項內容是處理意料之外的副作用. 演算法必須將數字磚塊挪開才能到達特定目標. 但這些磚塊只能推動, 不能拉動, 所以在某些情況下, 它們會被固定在某些地方無法移動. 雷克表示, 缺乏 '可逆性' 是人工智慧面臨的一大安全問題.

gridworld可供任何人下載使用. 至於它是否足以確保人工智慧系統的安全性, 目前還沒有定論. 在DeepMind與馬斯克支援的OpenAI共同進行的一項研究中, 人工智慧軟體似乎懂得討好人類老師, 而不是一味追求既定目標. 開發這樣的系統會限制系統的有效性, 導致其難以發現人類無法發現的方案. 但OpenAI安全研究主管達裡奧·阿莫德 (Dario Amodei) 表示, 在複雜環境中, 使用人類教練或許能夠更好地確保安全性.

2016 GoodChinaBrand | ICP: 12011751 | China Exports