当前位置:网站首页 > 更多 > 涨姿势 > 正文

[涨姿势] 研究人员赋予人工智能“内心独白”,极大地提高了其性能

作者:精品下载站 日期:2024-12-13 18:23:10 浏览:13 分类:涨姿势

研究人员赋予人工智能“内心独白”,极大地提高了其性能


科学家们使用一种名为 QuietSTaR 的技术训练人工智能系统在说话前进行思考。内心独白提高了常识推理能力,并使数学成绩提高了一倍。

[涨姿势] 研究人员赋予人工智能“内心独白”,极大地提高了其性能

新的研究表明,为人工智能(AI)系统提供“内心独白”可以使它们的推理能力大大提高。

该方法训练人工智能系统在响应提示之前进行思考,就像许多人在说话之前考虑接下来应该说什么一样。这与科学家训练 ChatGPT 等主流人工智能聊天机器人的方式不同,后者不会“思考”自己所写的内容,也不会预测对话中下一步的不同可能性。

这种被称为“Quiet-STaR”的新方法指示人工智能系统在响应对话提示之前并行生成许多内部原理。当人工智能回答提示时,它会生成这些带有或不带有理由的预测的混合,打印出最佳答案——人类参与者可以根据问题的性质进行验证。

最后,它通过丢弃被证明不正确的基本原理来学习。实际上,训练方法使人工智能代理能够预测未来的对话并从正在进行的对话中学习。

相关:顶级科学家表示,人工智能奇点可能会在 2027 年出现,人工智能“超级智能”的出现比我们想象的要早

研究人员将 Quiet-STaR 算法应用于开源大型语言模型 (LLM) Mistral 7B,并于 3 月 14 日将结果发布到预印本数据库 arXiv 上。 (该论文尚未经过同行评审。)

经过 Quiet-STaR 训练的 Mistral 7B 版本在推理测试中得分为 47.2%,而在任何训练之前得分为 36.3%。它仍然没有通过学校数学考试,得分为 10.9%。但这几乎是普通版本 5.9% 起始分数的两倍。

ChatGPT 和 Gemini 等模型是根据神经网络构建的,神经网络是机器学习算法的集合,其排列方式模仿人脑的结构和学习模式。然而,使用这种架构构建的系统在常识推理或情境化方面非常糟糕——并且人工智能聊天机器人不具备真正的“理解力”。

过去提高法学硕士推理能力的尝试都是高度特定领域的,无法应用于不同类型的人工智能模型。 

研究人员将自学推理机 (STaR) 算法用作其工作的基础,它是此类训练算法的一个例子,但由于这些限制而受到阻碍。

开发 Quiet-STaR 的科学家之所以将其命名,是因为 STaR 的原理可以在后台安静地应用,并且通常可以应用于几种不同类型的 LLM,而与原始训练数据无关。现在,他们想要研究像他们这样的技术如何缩小基于神经网络的人工智能系统和类人推理能力之间的差距。

您需要 登录账户 后才能发表评论

取消回复欢迎 发表评论:

关灯