故事要从今年三月初说起.
今年三月, Google被爆料已经与美国国防部达成合作, 帮助后者开发应用于无人机的人工智能系统, 项目代号 Project Maven.
消息一出, 瞬间风起云涌, 谷歌员工表达了对此项目的强烈不满. 有员工认为 Google 在为五角大楼开放资源, 助纣为虐般地帮助后者打造无人机监控技术;还有一部分人质疑 Google 如此使用机器学习技术是否符合道德标准, 他们认为五角大楼会将这一技术用于杀伤性武器, 进而带来技术乐观派们从未想要造成的伤害.
随后, 谷歌超过3100名员工联名请愿, 上书 CEO 桑达尔·皮查伊(Sundar Pichai), 表达抗议.
谷歌员工联名上书Sundar Pichai 事情到四月底进一步发酵. 有媒体发现, Google 删掉了其沿用十八年的座右铭 'Don't be evil' 在公司行为守则开头中的三处强调. 仅在准则的结尾, 还留有未被删掉的一句: '记住, don't be evil, 如果你看到了一些你认为不正确的事情, 大声说出来!'
上周五, 在每周一次的 '天气预报' 例会上, Google Cloud首席执行官黛安·格林(Diane Greene)宣布, Google 将在这次合约到期后结束与美国国防部的合作的Project Maven.
这无疑是一件大事. '胜利的消息' 在谷歌内部疯传. 随着一篇篇报道的蜂拥而出, 这件事情似乎暂时以谷歌 '向员工妥协, 停止与国防部续约' 的方式得以落幕.
但就在昨天, 谷歌CEO Sundar Pichai 发表了署名题为《AI at Google: our principles》的文章, 列出7大指导原则, 并指出谷歌并不会终止与美军的合作. 谷歌的反转让人唏嘘, 虽然其明确了 '不会追求的AI应用' , 但技术作恶还是人作恶的问题, AI伦理再次引人深思.
AI伦理的边界在哪里?
如果说谷歌近期来不太平, 那么亚马逊Alexa的日子也不好过.
亚马逊的Echo设备被指控未经许可将私人对话录音, 并将音频发送给用户联系人列表中的随机一位人士. 这距离上次Alexa被爆出 '嘲笑人类' 事件的吓人事件, 还没过过去多久.
Amazon对Alexa一事的回应 这可远远不是个例. 早在2016年, 一个人设为19岁少女, 名为Tay的聊天机器人在推特上线. 这个微软开发的人工智能采用了自然语言学习技术, 能够通过抓取和用户互动的数据, 处理并模仿人类的对话, 像人一样用笑话, 段子和表情包聊天. 但是上线不到一天, Tay 就被 '调教' 成了一个满口叫嚣着种族清洗, 粗野不堪的极端分子, 微软只好以 '系统升级' 为由将其下架.
微软机器人Tay的极端言论 这着实让人细思极恐. 智能相对论(aixdlun)分析师柯鸣认为, 随着AI弊病的凸显, AI伦理问题也将日益得到重视. AI伦理的边界到底在哪里?首先应该明确几个问题.
1.机器人是否成为民事主体?
随着人工智能技术的快速发展, 机器人拥有越来越强大的智能. 机器与人类之间的差距也逐渐缩小, 未来出现的机器人将拥有生物大脑, 甚至可以与人类大脑的神经元数量相媲美. 美国未来美国未来学家甚至预测: 在本世纪中叶, 非生物智能将会10亿倍于今天所有人的智慧.
公民身份似乎已经不再成为机器人的难题. 去年十月, 世界首个获得公民身份的机器人索菲亚诞生, 这也意味着人类的创造物拥有了和人类等同的身份, 以及其身份背后所拥有的权利, 义务, 和社会地位.
而法律上的民事主体资格依然是AI伦理的分界线. 在过去的一段时期, 美英等国的哲学家, 科学家包括法律家都为此开展过激烈的争论. 2016年, 欧盟委员会法律事务委员会向欧盟委员会提交动议, 要求将最先进的自动化机器人的身份定位为 '电子人' (electronic persons), 除赋予其 '特定的权利和义务' 外, 还建议为智能自动化机器人进行登记, 以便为其进行纳税, 缴费, 领取养老金的资金账号. 该项法律动议如获通过, 无疑使得传统的民事主体制度产生动摇.
从严格意义上说, 机器人不是具有生命的自然人, 也区别于具有自己独立意志并作为自然人集合体的法人. 若企图以机器人的行为过失定罪于AI本身, 确实行之过早.
2.算法的歧视会有失公平
人工智能在判断上失误的一个指责, 是它经常会 '歧视' . 使用最先进图像识别技术的谷歌曾经陷入 '种族歧视' 的指责, 只因它的搜索引擎会将黑人打上 '猩猩' 的标签;而搜索 '不职业的发型' , 里面绝大多数是黑人的大辫子. 哈佛大学数据隐私实验室教授拉谭雅·斯维 尼发现, 在谷歌上搜索有 '黑人特征' 的名字, 很可能弹出与犯罪记录相关的广告——来自谷歌智能广告工具 Adsense 给出的结果.
而这种危险并不仅仅是 '另眼相看' 本身——毕竟将一张黑人的照片打上 '猩猩' 的标签, 只是有点冒犯罢了. 而人工智能的决策正走入更多与个人命运切实相关的领域, 切实影响着就业, 福利以及个人信用, 我们很难对这些领域的 '不公平' 视而不见.
同样, 随着AI入侵招聘领域, 金融领域, 智能搜索领域等等, 我们所训练出来的 '算法机器' 是否能够真正的万无一失. 在求贤若渴的当代社会, 算法是否能够帮助公司选出千里挑一的那个人, 这都有待考究.
那么, 歧视的来源是哪里?是打标签者的别有用心, 是数据拟合的偏差, 还是程序设计哪里出了bug?机器所计算出的结果, 能为歧视, 不公, 残酷提供理由吗?这些都是值得商榷的问题.
3.数据保护是AI伦理的底线
网络空间是一个真实的虚拟存在, 是一个没有物理空间的独立世界. 在这里, 人类实现了与肉体分离的 '数字化生存' , 拥有了 '数字化人格' . 所谓数字化人格就是 '通过个人信息的收集和处理勾画一个在网络空间的个人形象' ——即凭借数字化信息而建立起来的人格.
而在AI环境中, 基于互联网和大数据的支持, 其拥有着用户大量的使用习惯和数据信息. 如果说 '过往数据' 的积累是机器作恶的基础的话, 那么资本力量的驱动则是更深层次的原因.
Facebook信息泄露事件中, 一家名为剑桥分析(Cambridge Analytica)的公司使用人工智能技术, 针对任意一个潜在选民的 '心理特征' 投放付费政治广告;而投什么样的广告, 取决于一个人的政治倾向, 情绪特征, 以及易受影响的程度. 很多虚假的消息在特定人群中能够迅速传播, 增加曝光, 并潜移默化地影响人们的价值判断. 技术主使克里斯托弗·威利最近向媒体揭发了这个人工智能技术的 '食粮' 来源——以学术研究为名, 有意攫取的 5000 多万用户数据.
退而言之, 即使不存在数据泄露问题, 对用户数据的所谓 '智能挖掘' 也很容易游走在 '合规' 但 '有违公平' 的边缘. 至于AI伦理的边界, 信息安全成为每一个互联网时代下 '信息人' 的最基本底线.
反思
在最近大火的一段关于AI伦理的视频中, 艺术家Alexander Reben没有任何动作, 但是通过语音助手下达命令: 'OK Google, 开枪. '
然而, 不到一秒的转瞬之间, Google Assistant扣动了一部手枪的扳机, 击倒了一颗红苹果. 随即, 蜂鸣器发出刺耳的嗡嗡声.
嗡嗡声响彻双耳.
是谁开枪击到了苹果?是AI还是人类?
在这个视频中, Reben告诉AI开枪. Engadget在报道中说, 如果AI足够智能以预测我们的需求, 或许有一天AI会主动除掉那些让我们不开心的人. Reben说, 讨论这样一个装置, 比是否存在这样一个装置更重要.
人工智能不是一个可预测的, 完美的理性机器, 他的伦理缺陷由算法, 人们使用的目标和评估. 但是, 至少从目前来看, 机器依然是人类实然世界的反应, 而不是 '应然世界' 的指导和先驱.
显然, 守住AI伦理的底线, 人类才不会走到 '机器暴政' 的那一天.
附: 谷歌的 '七条准则'
1. 有益于社会
2. 避免创造或增强偏见
3. 为保障安全而建立和测试
4. 对人们有说明义务
5. 整合隐私设计原则
6. 坚持高标准的科学探索
7. 根据原则确定合适的应用