前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >ChatGPT重大更新,能翻出所有历史对话,网友被AI聊破防了

ChatGPT重大更新,能翻出所有历史对话,网友被AI聊破防了

作者头像
机器之心
发布于 2025-04-13 07:56:39
发布于 2025-04-13 07:56:39
1010
举报
文章被收录于专栏:机器之心机器之心

机器之心报道

编辑:泽南

终极个人 AI 助理初现雏形。

今天凌晨,OpenAI 的 CEO 山姆・奥特曼突然发推说自己睡不着了,因为有重要新功能要推出。

很快,OpenAI 就正式发布了一个令人期待的新功能。

从今天开始,ChatGPT 在每次开启对话中都可以参考你过去的所有聊天记录,提供更加个性化的回复,并在建议中能够根据你的喜好和兴趣进行优化。有网友夸张地说,它现在知道关于你的一切,甚至包括你对话中产生的所有想法。

这意味着 ChatGPT 可以随着时间的推移更多地了解用户,越用越聪明,更加个性化,不再只是个无情的事实检查工具。该说不说,其实现在你开启以后,它已经能够回忆以前的对话内容了。

不久前,OpenAI 添加了一项名为「记忆」的功能,允许保留有限数量的信息,并用于未来的响应。用户通常需要明确要求 ChatGPT 记住某些信息才能触发此功能,尽管 AI 偶尔也会尝试猜测应该记住什么。当某些信息添加到其记忆中时,系统会显示一条消息,提示其记忆已更新。

今天宣布的新改进还不止于此。访问此功能后,你会看到一个弹出窗口,上面写着「推出新改进型记忆能力」。

ChatGPT 的界面上以前有一个复选框用于启用或禁用记忆追踪,现在则有两个复选框。「参考已保存记忆」是旧的记忆功能,它是一个容量有限的重要信息库。第二个是新功能:「参考聊天记录」,这使得 ChatGPT 能够使用所有之前的对话作为上下文,并相应地调整新回复的内容

与旧版保存记忆功能不同,聊天历史记录功能保存的信息无法访问或修改,只能选择开启或关闭。

新的 ChatGPT 记忆选项。

从覆盖范围来看,新的记忆功能首批会向 ChatGPT Plus 和 Pro 用户推出,不过 OpenAI 仍然需要在未来几周内逐渐部署。部分国家和地区(英国、欧盟、冰岛、列支敦士登、挪威和瑞士)尚未纳入此次推广范围。

OpenAI 表示,这些新功能将在稍后面向企业版、团队版和教育版用户推出,具体日期尚未公布。该公司尚未透露任何面向免费用户的计划。

新功能发布之后,人们纷纷进行了尝试。简单来说,从开启功能的一刹那观感就变了,ChatGPT 不再会和你简单地打招呼,而是变得跟你很熟悉的样子:

很多人问 ChatGPT「我前几天在搞哪些项目?」,AI 自然可以分门别类,对答如流。也有人在问,告诉我一些关于我的意想不到的事情,它会唤醒你一些死去的记忆:

那么让 ChatGPT 说出你以前最尴尬的事情呢?说出来让人有点破防:

看起来,大家对大模型拥有这样的记忆能力纷纷表示震惊。

机器学习社区中有人表示,这是对话系统的一个飞跃,或许会成为技术发展的拐点。如果你正在寻求适合特定情况、个性和偏好的答案,它可以显著提高 ChatGPT 的实用性。从更高的角度看,长期记忆能力也在把 ChatGPT 从一次性工具变成真正的助手。或许在不远的未来,它会比你更懂你。

OpenAI 研究科学家、AI 德扑 AI Libratus 发明者 Noam Brown 则表示,记忆能力标志着大模型应用互动范式的转变。

不过也有人在测试后指出,目前的记忆功能也存在一些缺陷,比如它仍然存在大模型幻觉的问题,有可能会一本正经地输出不存在的记忆。另外,ChatGPT 还没法把对话日期和记忆做好准确对应,这是以前 memory 功能就已经存在的问题。

分享了账号的网友在测试了新功能后也表示不好接受:

从技术角度来看,大型语言模型(LLM)通常使用两种类型的记忆:一种是在模型训练过程中嵌入到 AI 模型中的数据,另一种是上下文记忆(对话历史记录),它会在会话期间持续存在。通常情况下,一旦开始新的会话,ChatGPT 等大模型就会忘记你在对话中告诉过它的内容。

但对于大模型应用来说,人们总是期待 AI 能够实现长期记忆,从而更加智能。许多项目都尝试赋予 LLM 超越上下文窗口的持久记忆。这些技术包括动态管理上下文历史记录、汇总压缩先前的历史记录、链接到外部存储信息的向量数据库,或者简单地定期将信息注入系统提示(如 ChatGPT 在每次聊天开始时都会收到的指令)等等。

而在目前的 ChatGPT 长期记忆能力,很可能使用了检索增强生成(RAG),它能够在生成响应之前引用训练数据来源之外的知识库,而无需重新训练模型。对于大模型提供者来说,这是一种经济高效地改进 LLM 输出的方法,它让 AI 可以在各种情境下都能保持相关性、准确性和实用性。

与此前版本的记忆功能一样,用户也可以完全禁用 ChatGPT 的长期记忆功能(打开一个类似于 ChatGPT 的隐身模式),并且它不会用于带有临时聊天标志的对话。

值得一提的是,在 ChatGPT 记忆功能发布的同时,OpenAI 也放出了一段 46 分钟的采访视频,其中山姆・奥特曼与 GPT-4.5 项目核心成员 Alex Paino、Daniel Selsam 和 Amin Tootoonchian 展开对话,聊了聊最新大模型的训练过程和未来的发展方向。

有人对其中重点进行了总结:GPT-4.5 的项目历时两年,其目的是使新模型比前代(GPT-4)智能程度提升 10 倍左右。在这一代模型上,OpenAI 使用的训练算力从几万 GPU 提升到了十万级的 GPU,这就带来了大量未预见的问题。

虽然一直以来,Transformer 架构能够有效地从数据中学习,但 OpenAI 现在训练大模型的瓶颈似乎不是算力,而是数据,未来的进展取决于采样效率更高的算法;训练 GPT-4 现在只需要 5-10 人;下一代大模型的训练预计将有 1000 万次以上的 GPU 运行,不过过程可能是「半同步」或分布式的。

OpenAI 表示,在开发过程中,GPT-4.5 模型展现出了一些此前未明确规划的细微能力,该项目的结果最终验证了现有的「扩展定律」。

展望未来,OpenAI 团队讨论了更大规模训练的潜力与挑战,假设会用到百万级的 GPU。他们还谈到了预训练阶段与模型推理能力之间的关系、数据质量的重要性以及当前硬件的限制。

参考内容:

https://x.com/sama/status/1910334443690340845

https://x.com/polynoamial/status/1910379351759347860

https://www.youtube.com/watch?v=6nJZopACRuQ

https://arstechnica.com/ai/2025/04/chatgpt-can-now-remember-and-reference-all-your-previous-chats/

© THE END

转载请联系本公众号获得授权

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-04-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档