AI可能在未来读懂人类情绪,但这对我们是好事吗?
近几年,ai在科技领域是热点,随着科技的发展,ai的本事越来越大,可以更好地辅助人类。不过在情绪方面,ai是否能够像《超能陆战队》中的“大白”那样感知人类细腻而难以捉摸的情绪变化呢?
为了让ai更好地识别人类的情绪,相关的团队和企业一直在努力。
亚马逊曾表示其语音助手alexa能够通过分析用户指令的高低和音量等反应,识别用户高兴、悲伤、烦躁、恐惧等不同的情绪状态,并作出相应的回应。谷歌则开发了用ai检测负面情绪的设备。ibm通过面部识别摄像头以及扫描用户的脑电波与心率,结合ai分析得出结果。
这个领域有专门的名称,叫做“情感计算”。相关研究表明,人类要想以舒适的状态与机器人相处,机器人就必须理解人类的情绪,并给出适当的反应。
举一个简单的例子,现在人们越来越多地在生活中用到智能音箱,我们可以将其看做弱人工智能时代下的“机器人”。在使用过程中,相信很多人都体验过智能音箱无法完全理解自己的语义的情况。每到这时我们很容易产生一种莫名的负面情绪,影响使用体验。
这尚且是简单的机器人,如果到强人工智能阶段依然出现这种机器人无法理解人类情绪的情况,恐怕会产生更严重的问题。
好在人们已经在这一领域发力,并且取得了许多成果。 例如面部分析已被应用于计算机辅导课程,ai通过训练,识别学生不同水平的参与度和受挫感,如此一来ai就能掌控学生们的情绪,该技术有助于改善在线平台的学习体验。
如亚马逊一样,人工智能公司beyondverbal也在研究让ai通过声音来识别人类情绪的技术。该公司的ai软件能对音频调制进行分析,从人们的谈话方式中找出特定模式,这种技术在未来也许能给社交恐惧症或者自闭症人群以相当大的帮助。
在这一领域,索尼甚至打算开发能够和人类形成情感纽带的机器人。对此索尼并没向外界透露太多信息,不过索尼表示正在“寻求集成硬件和服务,以提供吸引人的情感体验”。可以想象,如果这类技术发展到一定程度,很可能会在更多的领域发挥作用。
即使ai能够通过各种方法读出人类表露的情绪,但那只是冰山一角,因为人的情绪表现具有选择性,如果只靠单纯的语音和表情分析,ai就永远成不了人类真正的“知音”,况且如今整容和变声已经不是新鲜事,这给现今ai使用的情绪计算方法更添了阻碍。
不过从宏观来看,全球情感计算市场的总额到2021年将达到539.8亿美元。由此可以感受到人类在情感方面需求的强烈程度,而ai注定要发挥更多作用。但是在致力于提升ai读懂情绪的能力的同时,也要注意到其中隐含的风险。
假如在未来,我们真的能拥有一个“大白”,它明明没有感情,但人类却会不可避免地对机器产生感情,这是否是正确的趋势?如果ai经过情绪分析认定某人有罪,我们又是否能相信它给出的结果?
更重要的是,如果未来某天,ai真的能洞悉人类的全部心思,恐怕也不是我们所要追求的。 我们希望ai懂我们,但又不希望它太懂我们,因为我们或许很难控制比我们“聪明”的人工智能,所以在懂与不懂之间,需要很好地把握其中的“度”。
上一篇: 为什么数据和分析是数字化转型的关键?
下一篇: 网站优化过程中我们如何去规范优化流程