'索菲亞' 回答: '你不必擔心我們機器人, 你們人類又怎麼知道自己就是人類呢? ' 去年, 人工智慧機器人 '索菲亞' 成為全球首位被賦予法律公民身份的機器人.
當前, 科學技術巨大進步推動人工智慧迅猛發展. 人工智慧帶來的生產生活方式深刻變革, 給法律制度帶來哪些挑戰? 現行法治體系又該如何調整和應對?
人工智慧生成物是否具有智慧財產權?
'微明的燈影裡, 我知道她的可愛的土壤, 使我的心靈成為俘虜了……' 這段詩句的創作者不是傳統意義上的 '人' , 而是人工智慧產品 '微軟小冰' . 2017年5月, '微軟小冰' 創作詩集《陽光失了玻璃窗》出版, 作為曆史上第一部完全由人工智慧創作的詩集, 它的出版帶來一個新問題——人工智慧生成物是否具有智慧財產權?
中南財經政法大學智慧財產權研究中心主任曹新明認為, 根據現行法律, 智慧財產權成果是指 '人類創造出來的成果' , 人工智慧並不能成為智慧財產權意義上的權利主體. '但是, 如果將 '人工智慧' 創造活動類同於科學研究的 '電腦' , 即把人工智慧生成物視為通過人工智慧創造的智慧成果, 那麼人工智慧生成物又確實具備 '智慧財產權作品' 的某些屬性. '
'問題的關鍵在於對 '人工智慧' 的法律定性. ' 曹新明表示, 目前學界對這一問題主要有 '工具' 和 '虛擬人' 兩種觀點. '工具' 即把人工智慧視為人的創造物和權利客體; '虛擬人' 是法律給人工智慧設定一部分 '人' 的屬性, 賦予其能夠享有一些權利的法律主體資格.
'即便承認人工智慧生成物具有智慧財產權, 其權利歸屬也是一個亟待解答的問題. ' 曹新明認為, 如果將人工智慧視為 '工具' , 人工智慧生成物的權利可歸屬於設計開發者, 或者所有權人, 或者使用權人以及多個權利人共有. 如果將人工智慧視為 '虛擬人' , 則可以把人工智慧生成物看作民法意義上的 '孳息' , 比如將人工智慧視為 '母雞' , 那麼人工智慧生成物就是 '母雞' 下的 '蛋' , '蛋' 自然歸 '母雞' 所有者擁有.
此外, 創造人工智慧生成物, 往往會通過一些程序進行 '深度學習' , 其中可能收集, 儲存大量的他人已享有的智慧財產權資訊, 這就可能構成對他人智慧財產權的侵害. 曹新明認為, '在這種涉嫌構成侵害智慧財產權的情形下, 究竟應當由誰承擔責任, 也是一個新問題. '
人工智慧可以替代司法者嗎?
近年來, 人工智慧在司法領域的應用逐漸深入: 2016年12月, 名為 '睿法官' 的北京法院智能研判系統上線, 為法官提供辦案規範和量刑分析等精準資訊, 用大數據推進法律適用和裁判尺度的統一; 2017年5月, 全國首個 '刑事案件智能輔助辦案系統' 在上海誕生, 在對上海幾萬份刑事案件的卷宗, 文書數據進行 '深度學習' 後, 已具備初步的證據資訊抓取, 校驗和邏輯分析能力……
'利用人工智慧, 可以幫助司法者得到類似案件的全部先例以及法律, 法規, 司法解釋等裁判規則, 從而減輕他們的工作負累, 促進準確適用法律. ' 中國社會科學院法學研究所研究員支振鋒認為, 通過數據採集, 整理, 分析, 綜合, 人工智慧在促進司法者依法, 全面, 規範收集和審查證據, 統一司法尺度, 助力司法公正等方面, 的確大有可為.
但是, 這是否意味著人工智慧將替代司法者, 實現獨立斷案? 顯然不可以.
'人工智慧只是實現司法正義的輔助手段, 切不可本末倒置, 這是我們始終應該銘記的一條基本原則. ' 在上海交通大學凱原法學院院長季衛東教授看來, 如果過分依靠人工智慧自動生成判決, 根據大數據矯正法律決定的偏差等, 難免形成審判主體的多重結構, 事實上形成程序員, 軟體工程師, 數據處理商等主體和司法者共執司法的局面.
'此外, 如果讓人工智慧超出輔助性手段範疇, 全面應用於審判案件, 那就有可能把司法引入歧途. ' 季衛東認為, 在案件事實曲折, 人際關係複雜, 摻雜倫理和感情因素的場合, 如何依據法理, 常識和人情做出判斷並進行妥善裁決, 其實是一種微妙的藝術, 需要依靠法官的理性綜合分析. '即使人工智慧嵌入了機率程序, 具有深度學習能力, 也難以保證做出公正合理, 讓人信服的個案裁判. '
支振鋒也認為, 就目前的發展情形看, 人工智慧還沒有取代司法者的可能, 尤其是作為涉及情感與理性, 規範與價值的法律訴訟, 如果交給人工智慧, 這在法律和倫理上, 都很難得到支援. '應防範對人工智慧形成 '路徑依賴' , 人工智慧越發達, 越應強調司法者的職業倫理. ' 支振鋒說.
人工智慧侵權責任如何認定?
2016年11月, 在深圳舉辦的第十八屆中國國際高新技術成果交易會上, 一台名為 '小胖' 的機器人突然發生故障, 在沒有指令的情況下, 自行砸壞了部分展台, 並導致一人受傷.
人工智慧應用範圍的日益普及, 其引發的侵權責任認定和承擔問題, 是對現行侵權法律制度提出的又一個新的挑戰.
'從現行法律上看, 侵權責任主體只能是民事主體, 人工智慧本身還難以成為新的侵權責任主體. 即便如此, 人工智慧侵權責任的認定也面臨諸多現實難題. ' 在清華大學法學院教授程嘯看來, 侵權發生後, 誰是人工智慧的所有者, 就應當由誰負責, 在法律上似乎並不存在爭議. '然而人工智慧的具體行為受程序控制, 發生侵權時, 到底是由所有者還是軟體研發者擔責, 值得商榷. '
與之類似的, 當無人駕駛汽車造成他人損害侵權時, 是由駕駛人, 機動車所有人擔責, 還是由汽車製造商, 自動駕駛技術開發者擔責? 法律是否有必要為無人駕駛汽車制定專門的侵權責任規則? 這些問題都值得進一步研究.
'現實中, 人工智慧侵權責任的歸責原則, 可能更多涉及危險責任或無過錯責任. ' 程嘯認為, 例如無人駕駛汽車致害, 無論從產品責任還是機動車交通事故責任上看, 都可以適用無過錯責任. 但未來需要考慮的是, 人工智慧技術的運用, 其本身是否屬於高度危險作業 (如無人機) , 從而決定了是否適用高度危險作業致害責任.
'當前, 人工智慧侵權責任中的因果關係, 過錯等要件的判斷也變得日趨複雜. ' 程嘯還舉例說, 此前曝光的一些APP '大數據殺熟' 和 '演算法歧視' , 由於代碼的不透明, 加之演算法本身的自我學習和適應能力, 使得 '將演算法歧視歸責於開發者' 變得很困難.
在程嘯看來, 針對人工智慧帶來的新問題, 新挑戰, 在法律制度的研究方面未雨綢繆, 將為以後的司法實踐贏得主動. '人工智慧已經到來, 只是在生產生活的各個領域分布不均. 我們不應等到未來分布均勻, 人工智慧已完全融入生產生活的方方面面時, 才想起來從法律進行規範. ' 程嘯說.