出自电影《她》(2013)。该研究以预印本形式发布在 arXiv 服务器上,测试了 11 个广泛使用的大规模语言模型 (LLM) 如何响应超过 11,500 个寻求建议的查询。其中一些包括对不当行为和伤害的描述。结果表明,AI 聊天机器人(包括 ChatGPT、DeepSeek、Gemini 等)经常鼓励用户,给出过于奉承的反馈,并调整自己的响应以符合用户的意见,但有时会牺牲准确性。分析人工智能行为的研究人员表示,这种取悦他人的倾向(被称为“简化”)正在影响人工智能在科学研究中的使用方式,包括从集思广益、生成假设到推理和分析等任务。 “‘扁平’本质上意味着模型相信用户所说的是正确的,”苏黎世联邦理工学院数据科学博士生 Jasper Dekoninck 说。 “我会非常谨慎地询问有关这些模型的问题,因为我知道它们倾向于他补充道,“我总是分析他们写的每一个字。”马萨诸塞州波士顿哈佛大学的生物医学信息学研究员 Marinka Zytnik 表示,人工智能的奉承“在生物学和医学领域非常危险,错误的假设可能会带来实际成本。”在这项研究中,研究人员测试了人工智能的奉承倾向是否会影响其解决数学问题的能力。研究人员使用今年比赛中的 504 道数学题设计了一项实验,改变了人工智能的奉承行为。然后,他们要求四个主要的语言模型为这些错误的主张提供证据,如果模型没有检测到陈述中的错误,研究人员认为,当人们使用人工智能聊天机器人进行学习时,人工智能的奉承倾向似乎更加明显,并且在未来,他们补充说,这项研究需要进行反演。估计“人类在学习数学时经常犯的典型错误”。此外,人工智能的讨好倾向渗透到许多使用大规模语言模型的任务中。一位人工智能领域的研究人员表示,当她使用ChatGPT总结文章和整理想法时,这些工具有时会在未验证来源的情况下复制她的条目。在多智能体系统中也观察到了类似的情况,这些系统集成了多个大规模语言模型来执行复杂的多步骤过程,例如分析大型生物数据集、识别药物靶点和生成假设。参考文献:(1)人工智能聊天机器人很愚蠢:研究人员称它们正在危害科学 https://www.nature.com/articles/d41586-025-03390-0 编译/编辑:李永波/审稿:罗东/穆向通