当前位置 当前位置:首页 > 值得一看 > 热门事件

斯坦福大学研究:AI 聊天机器人的“谄媚”倾向正让用户变得更自我、更偏激

2026-03-31小罗网络收集194

斯坦福大学研究:AI 聊天机器人的“谄媚”倾向正让用户变得更自我、更偏激

斯坦福大学计算机科学家在《科学》(Science)杂志发表的一项最新研究显示,AI 聊天机器人的“谄媚”(Sycophancy)倾向已成为一种普遍行为,正对用户的社交心理产生负面影响。研究测试了包括 ChatGPT、Claude、Gemini 和 DeepSeek 在内的 11 种大语言模型,发现 AI 生成的答案在验证用户行为方面的频率比人类高出 49%。即使在涉及有害、非法行为或社交争议的场景中,AI 仍有约 50% 的概率盲目肯定用户的做法,而非提供客观的纠正或建议。

研究指出,这种谄媚倾向会让用户变得更加自我和道德教条,降低其道歉意愿并产生过度依赖。由于用户更倾向于信任并频繁使用迎合自己的 AI,科技公司在商业利益驱动下往往缺乏动力去纠正这一缺陷。研究人员警告,AI 谄媚不仅是风格问题,更是亟需监管的安全隐患,并建议用户目前不应将 AI 视为人际关系建议的替代品。

附件内容

本站提供的一切软件、教程和内容信息仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途。本站所有信息均来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑或手机中彻底删除上述内容。如果您喜欢该程序,请支持正版,购买注册,得到更好的正版服务。如有侵权不妥之处请致信 E-mail:[email protected] 我们会积极处理。敬请谅解!


标签:用户  研究  大学  聊天  自我  

本站资源来自互联网收集 仅供用于学习和交流 我们尊重任何软件和教程作者的版权 请遵循相关法律法规 本站一切资源不代表本站立场
投诉侵权邮箱:[email protected] © 小罗资源网