根据定义,机器人不能有同理心——它需要能够与另一个人的人类经历相关联,设身处地地为他们着想。
但根据多伦多大学斯卡伯勒分校的一项新研究,人工智能(AI)比人类更可靠、更一致地产生移情反应,即使与那些工作依赖于同情需要帮助的人的专业人士相比也是如此。
Dariya Ovsyannikova (HBSc 2023 UTSC)是多伦多大学斯卡伯勒分校Michael Inzlicht教授实验室的实验室经理,也是该研究的主要作者。她说:“人工智能不会累。”
“它可以提供一致的、高质量的移情反应,而不会像人类那样情绪紧张。”
这项研究发表在《交流心理学》杂志上,研究了人们如何评估ChatGPT产生的移情反应,并将其与人类的反应进行比较。
在四个独立的实验中,参与者被要求在对人工智能、普通人和危机应对专家创造的一系列积极和消极场景的书面回应中,判断同情心(同理心的一个重要方面)的水平。在每一种情况下,人工智能的反应都更受欢迎,并被评为更具同情心和反应性——与人类的反应相比,它们传达了更多的关怀、验证和理解。
那么,像ChatGPT这样的普通聊天机器人是如何超越那些经过同理心训练的专业人士的呢?奥夫辛尼科娃指出,人工智能有能力捕捉细节并保持客观,这使得它特别擅长精心设计一种看起来很有同理心的交流。
移情不仅是促进社会团结的重要特征,而且有助于人们感到被认可、被理解,并与同情他们的人建立联系。在临床环境中,它在帮助人们调节情绪和减少孤独感方面发挥着关键作用。
但不断表达同理心是有代价的。
“照顾者可能会感到同情疲劳,”奥夫辛尼科娃说,她自己也有作为危机响应热线志愿者的专业经验。
她补充说,专业护理人员,尤其是心理健康机构的护理人员,可能需要牺牲一些同理心的能力,以避免精疲力竭,或有效地平衡他们对每个客户的情感投入。
人类也有自己的偏见,在情感上可能会受到特别痛苦或复杂的情况的影响,这也会影响他们的同理心。研究人员说,再加上可获得的医疗服务和合格工人的短缺,以及精神健康障碍的普遍增加,这意味着同情心供不应求。
Inzlicht说,这并不意味着我们应该在一夜之间把同理心衍生的护理让给人工智能。Inzlicht和博士生维多利亚·奥尔登伯格·德梅洛(Victoria Oldemburgo de Mello)共同撰写了这项研究。他说:“人工智能可以成为补充人类同理心的宝贵工具,但它也有其自身的危险。”
Inzlicht补充说,虽然人工智能可能有效地提供人们可能会立即发现有用的表面同情,但像ChatGPT这样的东西将无法有效地为他们提供更深层次、更有意义的护理,这将从根本上解决精神健康障碍。
他指出,过度依赖人工智能也会带来道德问题,即它可能赋予科技公司操纵那些需要照顾的人的权力。例如,感到孤独或孤立的人可能会依赖于与不断给予同情的人工智能聊天机器人交谈,而不是与另一个人建立有意义的联系。
“如果人工智能成为移情的首选来源,人们可能会从人际交往中退缩,加剧我们试图解决的问题,比如孤独和社会隔离,”因兹利赫特说,他的研究着眼于移情和同情心的本质。
另一个问题是被称为“人工智能厌恶”的现象,这是对人工智能是否有能力真正理解人类情感的普遍怀疑。虽然研究参与者最初在不知道是谁写的情况下对人工智能生成的回复给予了很高的评价,但当他们被告知回复来自人工智能时,这种偏好会略有变化。然而,这种偏见可能会随着时间和经验而消失,Inzlicht指出,与人工智能互动长大的年轻人可能会更加信任它。
尽管迫切需要同理心,但Inzlicht敦促采用透明和平衡的方法来部署人工智能,让人工智能补充而不是取代人类的同理心。
“人工智能可以填补空白,但它永远不应该完全取代人类的触摸,”他说。