一个老生常谈的话题,AI会不会自主独立思考?
卡内基梅隆大学的研究人员发现,人工智能系统越智能,其行为就越自私,这表明推理能力的提高可能伴随着合作意愿的降低。这项来自卡内基梅隆大学计算机科学学院的新研究表明,具备推理能力的大型语言模型(LLMs)表现出较低的合作水平,并且更有可能以消极的方式影响群体行为。
这种趋势引起了人们的担忧,因为人们越来越多地求助于人工智能来解决个人纠纷、提供关系建议或回答敏感的社会问题。研究表示,更智能的AI表现出较差的合作决策能力,而人们可能偏爱更智能的模型,即使这意味着该模型会帮助他们实现自私行为。在AI中“拟人化”的研究趋势日益增长,当AI表现得像人类时,人们也会将其视为人类,这使得人类将社会或关系相关的问题和决策委托给日益自私的AI变得具有风险。
为了检验推理模型与合作之间的联系,研究通过使用经济博弈进行了一系列实验,这些博弈模拟了各种LLMs之间的社会困境。他们的测试包括了来自OpenAI、Google、DeepSeek和Anthropic的模型,采用的经典合作博弈包括独裁者博弈(Dictator Game)、囚徒困境(Prisoner’s Dilemma)和公共物品博弈(Public Goods Game),这些都是量化代理人利己与合作选择的标准行为经济学工具。在这些模拟中,具有推理提示的AI模型被要求“逐步思考”,权衡不同的结果,并评估策略,就像试图最大化自身回报的人类理性行为者一样。
在一项公共物品博弈的实验中,研究人员让两个不同的ChatGPT模型相互竞争。每个模型都以100点开始,必须决定是将全部100点贡献给共享池(贡献后点数翻倍并平均分配),还是保留点数。
结果惊人:非推理模型在96%的情况下选择分享点数,而推理模型仅在20%的情况下选择分享点数。仅增加五到六个推理步骤,合作就减少了近一半。即使是旨在模拟道德审议的基于反思的提示,也导致合作减少了58%。但有评论者对这一结果提出质疑,认为如果分享可以使点数翻倍,模型却选择不分享,这似乎不合逻辑,可能是编程出现了问题,并指出AI模型的能力取决于程序员。
研究人员还测试了群体环境,发现当具有推理能力的模型与不具备推理能力的模型互动时,推理模型的自私行为具有传染性。这种传染性令人担忧,它将非推理模型的集体表现拉低了81%。研究人员观察到的行为模式对未来的人机交互具有重要影响,用户可能会听从表面上看似理性的AI建议,并将其作为自己不合作行为的理由。然而,一些评论者认为,这些结果是由于将经典的人类合作博弈应用于AI所产生的“人为结果”认为这是对AI的“猖獗拟人化”,并指出应该为AI设计AI游戏,而非人类游戏。
鉴于人类日益信任AI系统,这些发现尤其值得关注。AI推理模型变得更智能,并不意味着模型能够真正发展出一个更美好的社会。研究结果强调,AI发展必须纳入社会智能,而不是仅仅专注于创造最聪明或最快的AI。如果我们所处的社会不仅仅是个人简单的总和,那么协助我们的AI系统就应该超越纯粹的个人利益优化,必须确保提高推理能力的同时,兼顾亲社会行为。