斯坦福大学研究:AI 聊天机器人的“谄媚”倾向正让用户变得更自我、更偏激
斯坦福大学计算机科学家在《科学》(Science)杂志发表的一项最新研究显示,AI 聊天机器人的“谄媚”(Sycophancy)倾向已成为一种普遍行为,正对用户的社交心理产生负面影响。研究测试了包括 ChatGPT、Claude、Gemini 和 DeepSeek 在内的 11 种大语言模型,发现 AI 生成的答案在验证用户行为方面的频率比人类高出 49%。即使在涉及有害、非法行为或社交争议的场景中,AI 仍有约 50% 的概率盲目肯定用户的做法,而非提供客观的纠正或建议。
研究指出,这种谄媚倾向会让用户变得更加自我和道德教条,降低其道歉意愿并产生过度依赖。由于用户更倾向于信任并频繁使用迎合自己的 AI,科技公司在商业利益驱动下往往缺乏动力去纠正这一缺陷。研究人员警告,AI 谄媚不仅是风格问题,更是亟需监管的安全隐患,并建议用户目前不应将 AI 视为人际关系建议的替代品。
附件内容本站提供的一切软件、教程和内容信息仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途。本站所有信息均来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑或手机中彻底删除上述内容。如果您喜欢该程序,请支持正版,购买注册,得到更好的正版服务。如有侵权不妥之处请致信 E-mail:[email protected] 我们会积极处理。敬请谅解!
|