人工智慧演算法潛在的安全隱患, 認知偏見, 法律倫理衝突等往往是現實社會缺陷的反映. 只有在機器與使用機器的人上兩頭著力, 我們才能創造一個人工智慧與人類良性互動的未來.
語音點菜, 刷臉買單, 無人車送回家……60多年前, 當一批年輕的科學家首次提出人工智慧的概念時, 或許沒想到它帶來的巨大變化;而今, 得益於計算能力的提升, 大數據的驅動以及深度學習的突破, 人工智慧正加快 '進化' , 日益改變著我們的生產, 生活.
技術是把雙刃劍. 應當看到, 人工智慧在高歌猛進的同時, 對安全, 法律倫理等也提出了新挑戰. 比如, 一些專家擔憂人工智慧可能模糊虛擬世界和物理世界的界限, 甚至重塑人類的生存環境和認知形態, 並由此衍生出一系列棘手的道德倫理難題. 知名物理學家霍金生前就認為, 人工智慧的短期影響由控制它的人決定, 而長期影響則取決於人工智慧是否完全為人所控制.
從技術發展進程和邏輯看, 這些擔憂或許來得早了點. 好在我們沒有僅僅停留在爭論上, 針對人工智慧潛在的風險, 科學家和工程師們防患於未然, 從產品設計標準, 規範約束等方面提出了一系列試圖控制智能機器系統的可行性方案. 面對智能演算法不可理解, 缺乏透明造成的機器偏見, 人們正加強評估人工智慧使用的數據, 演算法以及模型, 剔除可導致偏見的潛在因素;對於未來強人工智慧環境下, 具有準人格的機器如何與人協調相處問題, 科學家也試圖探索通過演算法給智能機器嵌入人類的價值觀和規範, 讓它們具有和人類一樣的同情心, 責任心, 羞恥感等等. 我們希望, 在對人工智慧程序進行監管的同時, 讓人工智慧的演算法遵循 '善法' , 吸取人類道德規範 '善' 的一面, 從而控制機器的風險.
當然, 構建好機器法律倫理體系並不容易. 現實中豐富的語言表達, 微妙的情感訴求能被機器理解, 接受嗎?用量化的指標衡量善, 惡等倫理概念可行嗎?還有, 誰來決定演算法, 設定標準?這些都是我們試圖規範人工智慧發展需要面臨的難題. 但給機器嵌入倫理的困難, 並不意味著我們只能無所作為. 機器學習輸出的判斷和行為, 往往取決於它接受的資訊. 從這點看, 人工智慧本身並無對錯, 理想的狀態下, 當前基於深度學習的人工智慧演算法應當是中性, 客觀, 高效的, 其潛在的安全隱患, 認知偏見, 法律倫理衝突等往往是現實社會缺陷的反映, 只不過在技術的視野中被放大了. 因此, 要讓智能機器變得更完美, 除了通過技術手段對演算法進行審查或引導外, 更重要的或許是正視, 理解並改善現實社會環境. 只有在機器與使用機器的人上兩頭著力, 我們才能創造一個人工智慧與人類良性互動的未來.
倫理學家說, 人工智慧的道德水準將是一面鏡子, 它反映的是人類文明的道德高度. 人類社會不可能十全十美, 未來的機器智能時代亦然. 我們要繼續不懈努力, 去創造更好的智能時代.