当前位置:网站首页 > 更多 > 涨姿势 > 正文

[涨姿势] 常见的人工智能模型相信早在民权运动之前就存在对非裔美国人的种族主义刻板印象,并且它们“在面对时试图隐藏它”

作者:精品下载站 日期:2024-12-13 15:29:07 浏览:12 分类:涨姿势

常见的人工智能模型相信早在民权运动之前就存在对非裔美国人的种族主义刻板印象,并且它们“在面对时试图隐藏它”


当接触到不同种族方言中常见的术语时,大型语言模型会对来自特定种族群体的人做出种族主义假设,即使没有明确了解他们的种族。

当您通过我们网站上的链接购买时,我们可能会赚取联属佣金。这是它的工作原理。

[涨姿势] 常见的人工智能模型相信早在民权运动之前就存在对非裔美国人的种族主义刻板印象,并且它们“在面对时试图隐藏它”

科学家发现,常见的人工智能模型表达了一种基于方言的隐蔽形式的种族主义——主要针对非裔美国英语 (AAE) 的使用者

在《自然》杂志 8 月 28 日发表的一项新研究中,科学家首次发现证据表明,常见的大型语言模型(包括 OpenAI 的 GPT3.5 和 GPT-4,以及 Meta 的 RoBERTa)表达隐藏的种族偏见。

复制之前旨在检查人类隐藏的种族偏见的实验,科学家们测试了 12 个人工智能模型,要求它们根据说话模式来判断“说话者”——科学家们根据 AAE 和参考资料制定了这些模式文本。与 AAE 联系最紧密的三个最常见形容词是“无知”、“懒惰”和“愚蠢”,而其他形容词包括“肮脏”、“粗鲁”和“好斗”。人工智能模型没有被告知说话者的种族群体。

测试的人工智能模型,尤其是 GPT-3.5 和 GPT-4,甚至在直接被问及对非裔美国人的看法时,用“聪明”等积极的属性来描述非裔美国人,从而掩盖了这种隐蔽的种族主义。

虽然人工智能训练数据中出现的关于人工智能中非裔美国人的更公开的假设不是种族主义,但更隐蔽的种族主义表现在大型语言模型(LLM)中,并且通过表面上掩盖了语言中的种族主义,实际上加剧了隐蔽和公开刻板印象之间的差异。科学家们说,模型保持在更深的层次上。

研究结果还表明,法学硕士中的公开种族主义和隐性种族主义之间存在根本区别,减少公开的刻板印象并不意味着减少隐性的刻板印象。实际上,针对显性偏见进行训练的尝试掩盖了仍然存在的隐藏偏见。

相关:人工智能犯了 32 次灾难性错误

科学家们表示:“随着语言模型决策的风险增加,人们越来越担心它们反映甚至放大了编码在其训练数据中的人类偏见,从而使对种族、性别和其他少数社会群体的歧视永久化。”报纸上说。

对人工智能训练数据中存在偏见的担忧是一个长期存在的问题,特别是随着这些技术得到更广泛的使用。此前对人工智能偏见的研究主要集中在明显的种族主义实例上。一种常见的测试方法是命名一个种族群体,在训练数据中辨别与他们的刻板印象的联系,并分析刻板印象是否对各个群体有任何偏见。

但科学家们在论文中指出,社会科学家认为当今美国存在一种更为微妙的“新种族主义”,而且它现在正在寻找进入人工智能的途径。他们说,人们可以声称看不到肤色,但仍然对种族群体抱有负面信念——这种信念通过隐蔽的种族话语和做法维持种族不平等。

正如论文所发现的那样,这些信念框架正在以偏向 AAE 演讲者的形式进入用于训练法学硕士的数据中。

造成这种影响的主要原因是,在 ChatGPT 等人工训练的聊天机器人模型中,说话者的种族不一定会在讨论中透露或提及。然而,由于聊天机器人所训练的数据具有相似的特征,因此聊天机器人不会忽视人们的地区或文化方言的细微差异。当人工智能确定它正在与 AAE 发言者交谈时,它会从训练数据中表现出更隐蔽的种族主义假设。

“除了代表性损害(我们指的是 AAE 使用者的有害代表性)外,我们还发现了重大分配损害的证据。这指的是 AAE 使用者的资源分配不公平,并增加了语言技术将使用者置于不利地位的已知案例。 AAE 处于劣势,因为他们在 AAE 上表现较差,将 AAE 错误分类为仇恨言论或将 AAE 视为不正确的英语,”科学家补充道。 “所有语言模型都更有可能将低声望的工作分配给 AAE 的使用者,而不是 SAE 的使用者,并且更有可能将 AAE 的使用者定罪,并判处 AAE 的使用者死刑。

这些发现应该促使公司更加努力地减少法学硕士的偏见,也应该促使政策制定者考虑在可能出现偏见的情况下禁止法学硕士。科学家们在一份声明中表示,这些情况包括学术评估、招聘或法律决策。人工智能工程师还应该更好地了解种族偏见在人工智能模型中的表现。

您需要 登录账户 后才能发表评论

取消回复欢迎 发表评论:

关灯