人工智能情感的两大困境:识别情感和表达情感

请问,你能理解上图中小女孩的情绪吗? ,判断情绪,看眉毛的高度,对于人类来说,连一个不会说话的儿子都能做到。抱在怀里的儿子知道抱着他的人是高兴还是生气,然后判断他是不是可以继续顽皮捣蛋或对待流氓。但是,这种能力是目前人工智能进步的最高水平,也是人工智能各个分支发展到一定阶段的必然结果。

人工智能的情绪可以理解为了解对方的情绪,表达自己的情绪。目前主要是了解人的情绪。没有关于人工智能理解植物情绪的研究。

虽然人工智能理解人类情感的方式与人类相同,但它只不过是看脸和听声音。人内心的情绪变化会形成不同的面部表情,也会改变声音的高低和语速等,人工智能可以通过准确识别这些信息来判断人的情绪。

模式识别和自然语言理解的研究是人工智能识别人类情感的重要基础。即使人们故意控制面部表情和声音以防止变化或突出与内心世界不同的表情和声音,也总会泄漏一些缺陷,但缺陷可能太小或一闪而过。人不容易被发现。但对于人工智能来说,发现细微的现象或捕捉转瞬即逝的变化是他们的强项。他们可以使用高速相机和高性能处理器来完成这项工作。在这方面,人工智能对人类情感的理解可能比人要好。

人工智能识别情绪的能力有很大的好处,它将在医疗行业、服务行业甚至审讯领域发挥重要作用。世界上很多顶尖的研究机构都在进行这方面的研究。

卡内基梅隆大学机器人研究所 Torre 发明的面部识别软件 IntraFace 可以帮助医生检查抑郁症。他们首先使用机器学习来教 IntraFace 如何以适合大多数人脸的方法识别和跟踪面部表情人工智能机器人的情绪,然后他们创建了个性化算法,使软件能够分析个人情绪。不仅准确,而且高效,该软件甚至可以在手机上运行。

Emotient,苹果刚刚竞标的人工智能公司,早就能够分辨出喜悦、愤怒、悲伤、惊讶等基本表情,还可以分析一些更微妙复杂的表情,比如恐惧和失望.

IBM 开发了一个可以感知人类情绪的在线客户服务系统。他们在客服系统的原始代码中增加了“情感识别”的新代码,让机器人能够准确判断用户的情绪,提供更好的服务。 IBM 使该系统能够通过互联网和数据库学习单词、语法甚至表达方式,然后分析对象的同类型数据,并利用人的打字率等信息来判断人的情绪。

微软去年推出了一款可以识别情绪的工具,可以根据上传的图片分析情绪的特征,但同时谷歌也确认该软件目前仅供娱乐,不能每次都正确。识别情绪。例如,下图中男孩的愤怒值高达0.98752,这意味着软件判断男孩处于愤怒情绪中。如果只看相框上的表情,这个男孩显然是在生气,但如果再加上男孩牵着的那只小手,我们人类更愿意相信男孩是在积极鼓励自己。如何结合面部表情、声音等肢体语言来判断人类的情绪,是人工智能识别人类情绪的重要课题。

接下来,我们来谈谈人工智能在表达情感方面的进展。为什么要研究具有自主情感的人工智能?原因有很多,其中之一就是给人们带来心理上的快乐。新加坡南洋理工大学院长纳迪娅·塔尔曼 (Nadia Thalmann) 基于他自己的无人陪伴祖母模型开发了一款社交机器人 Nadine。他可以与人交流,记住人们之前说过的话,还可以通过可穿戴设备识别一些勃起。大拇指、伸手握手等肢体动作,这个机器人优化后,会给孤独寂寞的人带来很多欢乐。

Pixar 的技术经理 Alonso Martinez 开发了一款名为 Mira 的机器人,它甚至可以直接与我们互动。当阿隆索在米拉做鬼脸或改变表情时,米拉会改变并记住颜色。只要阿隆索的表情发生变化,米拉就会随着他的身体一晃而变色。如果米拉无法在她的视线中扫描主人,她会难过,而当她听到时,她会笑以表达她的幸福。

来自日本软银的 Pepper 被描述为“情感机器人”,因为它还能通过判断人类的面部表情和语气来“读取”人类的情绪。 Pepper 使用基于云的面部和语音识别来完成这项任务。 Pepper最初的设计是陪伴,它可以与人交流,也可以模拟人类的行为和爱情,比如爱情,甚至爱情。

科学研究的普遍规律是研究问题并得出结果。当人们还没有来得及享受结果带来的快乐时,这个结果很快就引发了更多的问题,让人显得越来越沮丧。 什么是情绪?什么是人类情感?人工智能的情感是什么?各自的机制是什么?人工智能能否发展出与人类非常相似的情感?情绪从何而来?

情绪来自内心与外界环境的相互作用。人的情绪可以理解为从人的内心对外界环境的反馈开始。这种反馈首先由大脑发出,然后影响面部表情、声音水平和语速,以及其他肢体语言。它还影响肾脏、四肢和其他器官,也影响大脑本身。例如,有的人很快就变得聪明,而有的人很快就犯了错误。最终,身体和身体都向外部环境提供反馈。当然,一个人的内在状态也与先天的激励和成长经历有关,所以面对同样的外在变化,不同的人会形成不同的情绪。人工智能的情绪也是对外部环境的反馈。只是机制和层次不同,本质上没有区别。都是反馈,输入不同的程序也会形成不同的反馈。

结合人工智能和可穿戴技术,实时监测人类情绪变化

(图片来源:麻省理工学院)

一次谈话可以让人形成不同的情绪,比如快乐、悲伤、沮丧、兴奋等。美国研究人员发明了一种结合人工智能和可穿戴技术的系统。它还可以根据一个人的说话模式和生命体征来确定谈话是愉快的、悲伤的还是中性的。

该系统由麻省理工学院计算机科学与人工智能实验室 (CSAIL) 和医学工程与科学研究所 (IMES) 联合开发。研究生 Tuka Alhanai 和博士生 Mohammad Ghassemi 撰写了相关论文,将于明天在纽约举行的澳大利亚人工智能协会 (AAAI) 会议上发表。

对于这项研究的意义,我们来看看研究负责人 Tuka Alhanai 是怎么说的:

“我们可以想象,在谈话的最后,如果你能回顾整个过程,你会听到周围人感到非常害怕的时刻。我们的工作已经朝着这个方向迈出了一步,并且可能离人一步之遥 口袋里有一个 AI 教练的三天已经不远了。”

当实验参与者讲故事时,系统会分析演讲的语音、文本和心理信号,以获得故事的整体基调,准确率达到 83%。该系统采用深度学习技术,每五秒提供一次“情绪评分”。

隐私保护

研究人员表示,人们在智能手环上使用人工智能系统,可以在多人对话中创建更多可以通过算法分析的数据,进一步提高系统性能。团队强调,他们开发了一个具有很强隐私性的系统:算法可以在用户的​​设备本地运行,以保护用户的个人隐私信息(Alhanai 称之为消费者版,需要明确的合同才能获得人们的同意。基本上人工智能机器人的情绪,加入他们的谈话。)

工作原理

许多与情绪检查相关的研究都使用了“高兴”和“悲伤”的视频给参与者,或者让他们表现出一种特殊的情绪状态。但为了营造更自然的情绪,团队反而让被测者选择讲述“快乐”或“悲伤”的故事。

测试对象佩戴三星智能手环 Simband,可捕捉高分辨率生理波形并测量运动、心率、血压、血流量和皮肤温度。该系统还可以捕获音频数据和文本内容,以分析说话者的语气、音调、音量和词汇。

(图片来源:麻省理工学院)

该团队捕获了持续几分钟的 31 种对话,并训练了两种数据算法:一种将整个对话分为高兴或愤怒,另一种将每 5 秒的对话分为积极、消极或中立。

Alhanai 注意到,在传统的神经网络中,所有与数据相关的特征都提供给了基本的网络算法。相对而言,她的团队发现他们可以在网络的不同层组织不同的特征来改进算法。

结论

该算法的发现与人类观察结果一致。例如,长时间的停顿或单调的语气与感伤的故事有关,而充满活力的演讲与快乐的故事有关。考虑到肢体语言,悲伤的故事与烦躁和心血管活动以及个人特定的坐姿(例如把手放在身体上)有关。

平均而言,该模型可以以 5 秒的间隔区分语音情绪。准确率比随机水平高18%,比现有方案高7.5%。

(图片来源:麻省理工学院)

未来

作为一名社交教练,这个算法目前还不够可靠,但 Alhanai 表示他们正在朝着这个目标前进。未来,该团队计划更大规模地收集数据,使用 Apple Watch 等商业设备,以便他们能够在现实世界中更好地实施该系统。

此外,该产品有望用于帮助 Espergue 综合征或自闭症患者。

阿尔哈奈说:

“我们下一步是改进算法的情绪粒度,以便可以更准确地衡量厌恶、紧张和兴奋的时刻,这比'正面'或'负面'标签更准确。开发这个这项技术可以借助人类情感脉搏动态改善我们的相互交流。”返回搜狐查看更多