当AI说“我了解你”时,为什么人们很难欣赏?
作者:bat365在线平台官网日期:2025/07/13 浏览:
您是否曾经尝试过深夜与聊天机器人交谈,但是您是否获得了一系列准确但机械的舒适感?如今,对话中的人工智能情报(AI)助手将进一步“理解人们的心”,甚至比朋友更快地提出建议,但我们似乎并没有真正地提出建议。 ?以前,一项以人类行为性质发表的研究揭示了这一想法令人惊讶:人们真的愿意得到人们的情感支持,而不是来自AI的情感支持,即使这两个响应的内容几乎是相同的。您还不相信AI可以“理解”您吗? 50年前,芝加哥大学的哲学家约翰·霍林(John Hawling)说:“ AI的问题是计算机不在乎。”这种观点仍然深深地植根于心脏ng人,尤其是在人工智能与人之间的情感关系领域。目前,一群来自以色列的科学家,包括希伯来大学的科学家进行了A S涉及超过6,000名参与者的实验的ERIE。他们向参与者展示了对情感支持的一些反应,所有这些都来自同一AI生成语言模型。但是,科学家告诉参与者AI写了它,有时他们说人们已经写了它。当人们认为他们正在与人交谈时,他们会对反应进行更高的检查,感觉更善良和情感共鸣。当他们知道它是由AI撰写的,即使内容完全相同,他们会感到这些建议缺乏热量甚至失败。换句话说,人们不认识AI所说的话,但是他们不想相信它确实可以“理解”我们。我们为什么相信人类的情感支持?当前的大语言模型(LLM)可以充分研究用户的情绪状态,并提出看似可以理解和充满爱意的反应。例如,如果您说:“我现在很累”,AI回答:“您似乎真的很困难,请记住要照顾好自己。”这样的句子看起来非常温暖和人性化。但是在实验中,即使受试者承认AI的反应是合乎逻辑和情感的,但他们仍然感到“它只是模仿人们,并不真正理解我的疾病。”这种心理现象被称为“同情”,因为人们很难将机器视为真正的听众。值得注意的是,即使AI的帮助被场景后面的人们“触及”或“引用”,也让长期参与者知道AI参与其中,他们也会减少对这一反应的情感认可。似乎一旦AI“触摸”了这段经文,“人类”就会失去热量。科学家认为,这可能来自我们对“同理心”的深刻理解:同理心不只是说正确的话,而是更重要的是,“同情”。因此,当我们知道另一方是AI时,我们不知道“它没有经历快乐,愤怒,悲伤和幸福,我们如何才能真正理解我?”这种心理学是imm适当地反映在行为中。在实验中,当人们被告知他们可以选择等待“人”的响应或立即从“ AI”中收到回应时,他们宁愿等待几分钟,而不是选择“人类”版本。情感支持还有未来吗?这项新的研究不是根据AI是否好的判断,而是探索人们如何从各种来源获得和获得支持。它揭示了AI对情感支持的限制,但并不忽略AI的价值。相反,它提醒我们,将来设计AI的帮助系统时,我们需要注意用户的理解和深层信任问题。例如,在2024年,Hume AI是一家拥有前“深思熟虑”研究人员担任首席执行官的公司,他发布了一个同情的语音界面,被指控为“与情商的第一个AI通信”,可以看到53种不同的用户感受。表现出“休ume AI”后,反应很热情。但是立即有些人记得人类的情绪不仅是情感的积极鸟。当AI试图理解甚至了解人们的情感行为时,它是活跃还是仅仅使用它们来实现某些目标?例如,刺激购物,养成不良习惯,心理酷刑等。在最新研究中,人与人工智能之间的大多数关系都短,只有一两个对话。实际上,许多人将AI伴侣应用用于长期情感交流。他们可以通过继续进行交流来建立特定的“虚拟假设”,这可以改变人们在更长的时间内对AI的同理心和指导能力的理解。将来,也许我们可以期待一个新的模型 - AI不再是“替代人”的情感支持者,而是一种用于“增强人类同理心”的工具。关系。在这个人力计算机团结的时代,我们需要重新定义什么是“真正的同情心”,并深入思考它:我们准备给AI有机会拥有很多钱“你好吗?”
相关文章