首页
学习
活动
专区
圈层
工具
发布

研究:AI致命弱点竟是过于礼貌

11月8日,据科技媒体Ars Technica,最新研究发现AI模型在社交媒体上极易被识破,其致命弱点竟是“过于礼貌”。苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的研究人员联合发布报告指出,在社交媒体互动中,AI模型因其过于友好的情感基调而极易暴露身份。

研究团队开发的自动化分类器在Twitter/X、Bluesky和Reddit三大平台上进行测试,识别AI生成回复的准确率高达70%至80%。这表明,当用户在网上遇到异常礼貌的回复时,对方很可能是一个AI机器人。为量化AI与人类语言的差距,该研究引入了“计算图灵测试”框架,运用自动化分类器和语言学分析,精准识别机器生成内容与人类原创内容的特征。

研究团队负责人、苏黎世大学的尼科洛・帕根表示,即便校准相关模型,其输出内容在情感基调和情绪表达上仍与人类文本存在明显区别,这些深层情感线索成为识别AI的可靠依据。研究的核心发现是“毒性特征暴露”,团队测试了九款主流开源大语言模型,发现这些AI模型在回复社交媒体帖子时,无法达到人类常见的负面情绪和情感表达水平,其“毒性”分数显著低于人类的真实回复。

研究人员尝试多种优化策略,如提供写作范例或进行上下文检索,以使AI在句子长度、词汇数量等结构性指标上更接近人类,但情感基调上的差异依然存在。这表明,让AI学会像人一样“不那么友好”,可能比让它变得更聪明还要困难。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O-wUMtzohs9oqL0SiJy7Wgnw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券