人工智能正在我们周围逐渐产生影响力. 在社交媒体上做定向广告, 筛选求职者, 确定机票价格, 通过语音识别控制中央暖气系统, 创造文化输出, 或调节交通流量等, 人工智能在人类生活中的任务越来越多.
马斯克预测, 到2017年底, 特斯拉无人驾驶汽车将能够在美国各地安全行驶, 而无需人工参与. 社会型机器人生活在人类周围, 能够在十年内完成许多家用或护理型任务.
人们普遍认为, 到2050年, 我们将能够在这些特定领域之外的其他方面也获得进展, 最终实现通用人工智能(AGI). AGI是微软发布的新概念操作系统Singularity的一部分. 其理念是计算机能够在任何认知型任务上超越人类, 而人机融合也变得极为普遍. 在那之后会发生什么, 谁都说不准.
你有人工智能策略吗?你希望有吗?
有一种有趣的想象是在人类身体里安装计算机零件, 从而令人类更快地处理数据. 人工智能领域中的一些人设想的 '神经网格' 可充当大脑外部的额外皮层, 将我们与电子设备连接起来, 其速度和效率都很高. 这将是机器零件的重大革新, 也就是说 '半机器人' 身体中的电子心脏起搏器和钛合金关节等. 未来人工智能的重点将放在军事和国防应用上, 完全自主武器的概念非常具有争议性. 这种武器系统可以搜索, 识别, 选择和摧毁一个基于算法的目标, 并从过去的安全威胁中吸取教训, 但是却并没有人类参与. 这是一个相当可怕的概念.
这些关于人工智能主宰人类未来的设想, 近乎科幻的反乌托邦, 让人联想起《终结者》的场景.
偶然性辨别
人类距离毁灭或许还有一段路要走, 但如今围绕人工智能道德伦理的警示却已经敲响了警钟. 就在上个月, 机器学习算法已经受到了抨击, 因为它主动建议亚马逊用户制造炸弹组件, 在招聘广告中体现性别不平等以及通过社交媒体传播仇恨信息等. 这种错误的大部分原因在于机器学习的数据质量和性质. 机器会从人类数据中得出不那么完美的结论. 如今, 这种结果对算法的管理和日常生活中的人工智能机制提出了严肃的问题.
最近, 一名有精神病史的年轻美国男子被拒绝了一份工作, 原因是他对于算法型性格测试的态度不合要求. 他认为自己受到了不公平的, 非法的歧视, 但由于该公司不明白这种算法的运作方式, 而《劳动法》目前也没有明确涵盖机器决策类的内容, 因此他没有诉诸法律. 中国的 '社会信用' 计划也引发了类似的担忧. 去年, 该计划从社交媒体(包括朋友的帖子)中收集了一些数据, 以评估一个人 '公民身份' 的质量, 并将其用于决策, 比如是否给此人提供贷款等.
对人工智能伦理和法律的需求
为人工智能操作和监管制定清晰的道德体系是必要的, 尤其是在政府和企业在某些方面拥有优先权的时候, 如获取和维持电力等. 以色列历史学家尤瓦尔·赫拉利就无人驾驶汽车和电车难题的悖论进行了讨论. 像麻省理工学院的道德机器这样的创新项目试图收集人类对于机器伦理的数据.
但是, 伦理并不是唯一一个涉及人工智能和人类健康问题的领域. 人工智能已经对人类产生了重大的情感影响. 尽管如此, 作为人工智能研究的一个课题, 情感也依然被忽视了.
你可以随意浏览下过去两年里在科学学术数据库的网页上发布的3542篇关于人工智能的同行评议文章. 其中只有43篇, 即1.2%, 包含 '情感' 一词. 真正描述了人工智能情感研究的文章就更少了. 在考虑Singularity系统时, 情感应该被纳入人工机器认知结构考虑的范畴. 然而99%的人工智能研究似乎并不认可这一点.
人工智能了解人类的感受
当我们谈论人工智能中的情感时, 我们指的是几种不同的东西. 一是机器能够识别我们的情绪状态并采取相应的行动. 情感运算领域正在快速发展, 通过生物计量传感器来测试皮肤反应, 大脑电波, 面部表情和其他情感数据. 大多数时候, 计算是准确的.
这一技术的应用既可以是善意的也可以是邪恶的. 公司可以根据你对一部电影的情感反应获得反馈, 并通过智能手机实时向你出售相关物品. 政客们可能会精心打造能够吸引特定受众的信息. 而社交机器人可能会调整自己的反应, 在医疗或护理环境中更好地帮助病患, 数字助手则可能会用一首歌来帮助提升你的情绪. 市场力量将推动这一领域的发展, 扩大其覆盖范围, 并完善其能力.
我们如何看待人工智能呢?
这是人工智能的第二个情感领域. 人类对人工智能的情感反应还没有什么进展. 人类似乎想要与人工智能实现联系, 就像我们对待大多数技术一样, 把人的个性与无生命的物体联系起来, 让电器拥有目的性, 并将情感投射到我们所使用的技术上, 例如 '它对我很生气, 这就是它不起作用的原因' 等等.
这就是所谓的媒体等同(Media Equation). 它涉及到一种双重思考: 我们在理智的认知上明白机器不是有知觉的生物, 但我们在情感上却会对它们做出反应, 就好像它们拥有情感一样. 这可能源于我们人类最基本的需求, 即人际关系和情感联系, 如果没有这些, 人类就会变得抑郁. 这一需求驱使人类去与其他人和动物实现联系, 甚至是机器. 感官体验是这种结合驱动和奖励机制的重要组成部分, 也是快乐的源泉.
虚假社交
当我们的环境中不存在联系和归属感的体验时, 我们会通过电视, 电影, 音乐, 书籍, 视频游戏和任何能够提供沉浸式社交世界的东西来复制这种体验. 这被称为社会替代假说(Social Surrogacy Hypothesis), 一种由社会心理学的实证支持的理论, 它正开始被应用于人工智能.
人类的基本情感是有依据的, 即使是面对虚拟的人工智能. 例如面对数字助理的恭维所表现出的开心, 面对拒绝抵押贷款申请的算法时表现出的愤怒, 面对无人驾驶汽车时表现出的害怕, 面对Twitter的人工智能拒绝验证自己账户时表现出的难过(我现在还在为这个问题而伤心).
机器人
人类面对有实体的人工智能的情感反应更强, 也就是说机器人. 机器人越像人类, 我们对它的情感反应就越强烈. 我们被拟人化的机器人所吸引, 向它们表达积极的情感, 当看到它们受到伤害时, 我们会产生同情和不快的感觉. 如果他们拒绝我们, 我们甚至会感到难过.
然而, 有趣的是, 如果一个机器人几乎完全像人类一样, 但又不是完美的人类, 我们对它们的评估会突然下降, 从而拒绝它们. 这就是所谓的 '恐怖谷' 理论, 由此产生的设计理念是在现阶段让机器人看起来不那么像人类, 除非有一天我们能把机器人制作地和人类一模一样.
温柔的触摸
人工智能现在利用触觉技术, 一种基于触摸的体验, 来进一步加深人类与机器人之间的情感纽带. 也许这个例子最为著名: 有一只毛茸茸的海豹Paro在不同国家的护理机构中都挺有用.
社交和情感机器人有很多潜在的用途. 其中一些措施包括照顾老年人, 帮助它们自主生活, 帮助遭受孤立的人, 以及患有痴呆症, 自闭症或残疾的人. 基于触摸的感官体验正日益被集成到虚拟现实等融入科技中, 这是其中的一部分.
在其他领域, 人工智能可能会负责处理日常家务琐事或教学之类的任务. 一项针对750名年龄在5岁到18岁之间的韩国儿童的调查发现, 尽管他们中的大多数人在接受人工智能机器人教授的课程时都没有什么问题, 但许多人对人工智能老师发挥的情感作用表示担忧. 机器人能给学生提供建议或情感吗?然而, 超过40%的人赞成用人工智能机器人代替教师.
正如哈佛大学心理学家Steven Pinker所说, 像上面描述的社会替代这样的体验可以让我们欺骗自己. 我们并没有真正体验到社交, 但却欺骗大脑, 让我们相信自己是如此, 从而令自己感觉更好. 然而, 复制的效果不如真实的好.
结语
显然, 人们可以从与人工智能的互动中体验到真实的情感. 但是, 我们是否会在无人驾驶汽车, 虚拟助手, 机器人教师, 清洁工和玩伴之外, 错过一些离自己不那么遥远的东西?
这一场景让人想起了Harry Harlow著名的实验, 在那里, 被孤立的猴子们可以选择有着柔软毛发的 '母亲' , 而不需要通过冰冷的铁丝网领取分发的牛奶. 我们是否能在技术上实现我们想要的一切, 并意识到人类基本的情感需求与现实世界感官体验的乐趣是不存在的?至于对未来来说较为奢侈的东西, 我们是否会追求与大批量生产的垃圾食品相对立的东西, 即真正的感官体验和与真人的接触, 而不是机器人?
答案是, 现在还不知道. 但是, 99%的人工智能研究没有关注情感, 这一事实表明, 如果情感确实在人工智能中发挥更大的作用, 那么这要么是事后的想法, 要么是因为情感数据让人工智能设备及其雇主能够拥有更多权力和金钱. 数字人文主义计划可能会帮助我们记住一点, 即当我们朝着Singularity系统与人机融合进发时, 我们不应该忽视自身古老的哺乳动物大脑以及它们对情感纽带的需求. OpenAI项目是朝着这个目标迈出的一步, 它的目标是让所有人都能享受到人工智能的好处. 那么让我们更进一步, 在人工智能领域考虑下情感健康. 谁又知道这会给我们带来什么呢?