机器之心报道
编辑:泽南
终极个人 AI 助理初现雏形。
今天凌晨,OpenAI 的 CEO 山姆・奥特曼突然发推说自己睡不着了,因为有重要新功能要推出。
很快,OpenAI 就正式发布了一个令人期待的新功能。
从今天开始,ChatGPT 在每次开启对话中都可以参考你过去的所有聊天记录,提供更加个性化的回复,并在建议中能够根据你的喜好和兴趣进行优化。有网友夸张地说,它现在知道关于你的一切,甚至包括你对话中产生的所有想法。
这意味着 ChatGPT 可以随着时间的推移更多地了解用户,越用越聪明,更加个性化,不再只是个无情的事实检查工具。该说不说,其实现在你开启以后,它已经能够回忆以前的对话内容了。
不久前,OpenAI 添加了一项名为「记忆」的功能,允许保留有限数量的信息,并用于未来的响应。用户通常需要明确要求 ChatGPT 记住某些信息才能触发此功能,尽管 AI 偶尔也会尝试猜测应该记住什么。当某些信息添加到其记忆中时,系统会显示一条消息,提示其记忆已更新。
今天宣布的新改进还不止于此。访问此功能后,你会看到一个弹出窗口,上面写着「推出新改进型记忆能力」。
ChatGPT 的界面上以前有一个复选框用于启用或禁用记忆追踪,现在则有两个复选框。「参考已保存记忆」是旧的记忆功能,它是一个容量有限的重要信息库。第二个是新功能:「参考聊天记录」,这使得 ChatGPT 能够使用所有之前的对话作为上下文,并相应地调整新回复的内容。
与旧版保存记忆功能不同,聊天历史记录功能保存的信息无法访问或修改,只能选择开启或关闭。
新的 ChatGPT 记忆选项。
从覆盖范围来看,新的记忆功能首批会向 ChatGPT Plus 和 Pro 用户推出,不过 OpenAI 仍然需要在未来几周内逐渐部署。部分国家和地区(英国、欧盟、冰岛、列支敦士登、挪威和瑞士)尚未纳入此次推广范围。
OpenAI 表示,这些新功能将在稍后面向企业版、团队版和教育版用户推出,具体日期尚未公布。该公司尚未透露任何面向免费用户的计划。
新功能发布之后,人们纷纷进行了尝试。简单来说,从开启功能的一刹那观感就变了,ChatGPT 不再会和你简单地打招呼,而是变得跟你很熟悉的样子:
很多人问 ChatGPT「我前几天在搞哪些项目?」,AI 自然可以分门别类,对答如流。也有人在问,告诉我一些关于我的意想不到的事情,它会唤醒你一些死去的记忆:
那么让 ChatGPT 说出你以前最尴尬的事情呢?说出来让人有点破防:
看起来,大家对大模型拥有这样的记忆能力纷纷表示震惊。
机器学习社区中有人表示,这是对话系统的一个飞跃,或许会成为技术发展的拐点。如果你正在寻求适合特定情况、个性和偏好的答案,它可以显著提高 ChatGPT 的实用性。从更高的角度看,长期记忆能力也在把 ChatGPT 从一次性工具变成真正的助手。或许在不远的未来,它会比你更懂你。
OpenAI 研究科学家、AI 德扑 AI Libratus 发明者 Noam Brown 则表示,记忆能力标志着大模型应用互动范式的转变。
不过也有人在测试后指出,目前的记忆功能也存在一些缺陷,比如它仍然存在大模型幻觉的问题,有可能会一本正经地输出不存在的记忆。另外,ChatGPT 还没法把对话日期和记忆做好准确对应,这是以前 memory 功能就已经存在的问题。
分享了账号的网友在测试了新功能后也表示不好接受:
从技术角度来看,大型语言模型(LLM)通常使用两种类型的记忆:一种是在模型训练过程中嵌入到 AI 模型中的数据,另一种是上下文记忆(对话历史记录),它会在会话期间持续存在。通常情况下,一旦开始新的会话,ChatGPT 等大模型就会忘记你在对话中告诉过它的内容。
但对于大模型应用来说,人们总是期待 AI 能够实现长期记忆,从而更加智能。许多项目都尝试赋予 LLM 超越上下文窗口的持久记忆。这些技术包括动态管理上下文历史记录、汇总压缩先前的历史记录、链接到外部存储信息的向量数据库,或者简单地定期将信息注入系统提示(如 ChatGPT 在每次聊天开始时都会收到的指令)等等。
而在目前的 ChatGPT 长期记忆能力,很可能使用了检索增强生成(RAG),它能够在生成响应之前引用训练数据来源之外的知识库,而无需重新训练模型。对于大模型提供者来说,这是一种经济高效地改进 LLM 输出的方法,它让 AI 可以在各种情境下都能保持相关性、准确性和实用性。
与此前版本的记忆功能一样,用户也可以完全禁用 ChatGPT 的长期记忆功能(打开一个类似于 ChatGPT 的隐身模式),并且它不会用于带有临时聊天标志的对话。
值得一提的是,在 ChatGPT 记忆功能发布的同时,OpenAI 也放出了一段 46 分钟的采访视频,其中山姆・奥特曼与 GPT-4.5 项目核心成员 Alex Paino、Daniel Selsam 和 Amin Tootoonchian 展开对话,聊了聊最新大模型的训练过程和未来的发展方向。
有人对其中重点进行了总结:GPT-4.5 的项目历时两年,其目的是使新模型比前代(GPT-4)智能程度提升 10 倍左右。在这一代模型上,OpenAI 使用的训练算力从几万 GPU 提升到了十万级的 GPU,这就带来了大量未预见的问题。
虽然一直以来,Transformer 架构能够有效地从数据中学习,但 OpenAI 现在训练大模型的瓶颈似乎不是算力,而是数据,未来的进展取决于采样效率更高的算法;训练 GPT-4 现在只需要 5-10 人;下一代大模型的训练预计将有 1000 万次以上的 GPU 运行,不过过程可能是「半同步」或分布式的。
OpenAI 表示,在开发过程中,GPT-4.5 模型展现出了一些此前未明确规划的细微能力,该项目的结果最终验证了现有的「扩展定律」。
展望未来,OpenAI 团队讨论了更大规模训练的潜力与挑战,假设会用到百万级的 GPU。他们还谈到了预训练阶段与模型推理能力之间的关系、数据质量的重要性以及当前硬件的限制。
参考内容:
https://x.com/sama/status/1910334443690340845
https://x.com/polynoamial/status/1910379351759347860
https://www.youtube.com/watch?v=6nJZopACRuQ
https://arstechnica.com/ai/2025/04/chatgpt-can-now-remember-and-reference-all-your-previous-chats/
© THE END
转载请联系本公众号获得授权
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有