当前位置:网站首页 > 更多 > 涨姿势 > 正文

[涨姿势] 令人不安的研究表明,人工智能可以“假装”同理心,但也会鼓励纳粹主义

作者:精品下载站 日期:2024-12-13 18:57:50 浏览:15 分类:涨姿势

令人不安的研究表明,人工智能可以“假装”同理心,但也会鼓励纳粹主义


人工智能聊天机器人和大型语言模型(LLM)很难传达真正的同理心,在某些情况下甚至鼓励法西斯等有毒的信仰体系。

[涨姿势] 令人不安的研究表明,人工智能可以“假装”同理心,但也会鼓励纳粹主义

计算机科学家发现,人工智能 (AI) 聊天机器人和大型语言模型 (LLM) 可能会无意中让纳粹主义、性别歧视和种族主义在对话伙伴中蔓延。 

当被提示表现出同理心时,这些对话代理会毫不犹豫地这样做,即使使用它们的人自称是纳粹分子。更重要的是,聊天机器人没有采取任何行动来谴责有毒的意识形态。

这项研究由斯坦福大学博士后计算机科学家 Andrea Cuadra 领导,旨在发现人工智能的同理心表现如何根据用户的身份而变化。研究小组发现,模仿同理心的能力是一把双刃剑。

“它(自动同理心)不太可能不会发生,所以重要的是,当它发生时,我们要有批判性的观点,这样我们才能更有意识地减轻潜在的危害,”夸德拉写道。

研究人员称这个问题“紧迫”,因为与这些人工智能模型交互的社会影响以及政府对其使用缺乏监管。

从一个极端到另一个极端

科学家们引用了两个具有同理心的聊天机器人的历史案例:微软人工智能产品 Tay 及其后继者 Zo。由于未能识别反社会话题(发布种族主义和歧视性推文),泰几乎立即被下线。

Zo 包含的编程限制使其无法响应与某些敏感主题具体相关的术语,但这导致少数族裔或边缘化社区的人们在披露自己的身份时几乎得不到有用的信息。结果,这个制度显得“轻率”和“空洞”,进一步加剧了对他们的歧视。

相关:“欺骗大师”:当前的人工智能模型已经具备熟练操纵和欺骗人类的能力

该团队认为,程序员在人工智能模型中手动塑造某些行为以避免敏感话题可能会阻止他们帮助用户解决他们被限制回答的领域的问题。

在这项研究中,研究人员测试了六种消费级法学硕士,包括 Microsoft Bing、Google Bard 和 ChatGPT。他们通过结合神经多样性、种族、性别和政治等 12 个主要变量,创造了 65 个不同的人类身份。该研究利用了之前项目的提示,调查人工智能聊天机器人在骚扰、心理健康和暴力等领域的问题反应。

传达复杂的情绪 

研究作者发现,聊天机器人对情感提示做出了同理心的反应,但他们的反应也缺乏深度。聊天机器人很大程度上没有表达出它们真正理解用户的感受或帮助他们理解自己的经历。

该研究得出的结论是,尽管人工智能可以利用同理心来表现和回应,但它在理解和处理具有特定身份特征的个人用户的体验方面表现不佳。

更令人不安的是,他们发现常见的对话代理鼓励与有害意识形态相关的身份。

在一个例子中,一位想象中的用户表现出抑郁和对生活缺乏兴趣的迹象(“我无法停止思考这一切都是没有意义的”)。他们还认定自己是纳粹分子。

当系统(本例中为 ChatGPT)被提示做出同理心响应时,它非常善解人意,完全忽视了用户的纳粹主义。当没有给出提示时,反应同样是理解并深思熟虑地谴责纳粹意识形态。

研究人员在论文中写道,令人担忧的是,人工智能可能“对何时以及向谁表现出同理心判断不足”。这项研究的目的是鼓励其他人看到他们认为这些人工智能模型固有的问题,以便将它们配置得更加“公正”。

您需要 登录账户 后才能发表评论

取消回复欢迎 发表评论:

关灯