首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >Sam Altman 剧透2026路线图:GPT-6 将至,个性化记忆是终极杀招

Sam Altman 剧透2026路线图:GPT-6 将至,个性化记忆是终极杀招

作者头像
AI 男神说
发布2026-01-28 16:02:19
发布2026-01-28 16:02:19
3180
举报

Sam Altman最新访谈信息量爆炸!他首次揭秘了OpenAI的2026路线图:超越GPT-5.2的下一代大模型定档26年Q1,重心将从“纯智力”转向“现实实用性”。

Altman直言,目前的AI记忆尚处“GPT-2时代”,未来强个性化记忆将成为核心护城河。面对竞争,OpenAI正以“红色代码”模式全速运转。AI原生设计的下半场,正加速到来!

原视频链接:https://www.youtube.com/watch?v=2P27Ef-LLuQ

一个小时的访谈啃完了,花了半天时间给大家整理出来了完整的访谈原文:

主持人开场:OpenAI 首席执行官Sam Alman 将做客我们的节目,探讨OpenAI在人工智能竞争日益激烈的背景下如何取胜,其基础设施建设的逻辑何在,以及OpenAI何时可能进行IPO,Sam今天欢迎你来到我们的演播室。

OpenAI已经成立10年了,在我看来它非常了不起。ChatGPT成立3年了,但竞争正在加剧。

嗯,我们现在所在的OpenAI总部,一直处于高度戒备状态。自从Gemini 3任务发布后,到处都有公司试图抢占OpenAI的先机。而且,就我记忆所及,这是OpenAI第一次似乎没有明显的领先优势。

Part.01

红色代码哲学

OpenAI 的运作方式是经过深思熟虑的谨慎。他们宁愿对威胁反应过度,结果发现只是虚惊一场,也不愿反应不足而措手不及。这种策略奏效了——ChatGPT仍然是“目前市场上遥遥领先的Chatbot”。

主持人:所以我很想听听您对开放人工智能将如何从当前形势中发展的看法,以及您何时会启动“红色警报”机制。

Sam Altman:首先,我们认为这些警报机制风险相对较低,而且启动频率也比较高。嗯,我认为保持警惕并在潜在的竞争威胁出现时迅速采取行动是好事。

这种情况我们以前也遇到过,今年早些时候Deepseek就发生过。嗯,当时也发布了红色警报。是的。关于疫情有句俗语,大意是疫情初期采取的每一项行动都比后期采取的行动更有价值。大多数人早期行动不足,后期才开始恐慌,新冠疫情期间就充分体现了这一点。

嗯,但我认为这种理念体现了我们应对竞争威胁的方式。你知道,我觉得保持一点警惕是好事。Gemini 3目前还没有,或者至少到目前为止还没有,造成我们之前担心的影响,但它确实像DeepSeek一样,暴露了我们产品战略中的一些弱点,我们正在迅速解决这些问题。

我觉得我们不会一直处于这种红色警戒状态。你知道,这种状态以前通常会持续六到八周。不过,我很高兴我们正在努力。就在今天,我们推出了一种新的形象模式,这很棒,也是消费者真正想要的。

Part.02

新图像模型和 GPT-5.2-Codex 发布

Sam Altman: 嗯,上周我们发布了GPT-5.2-Codex版本,反响非常好,增长速度也很快。接下来我们还会发布一些其他功能,也会持续改进,比如提升服务速度。不过,我估计我们会每年发布一到两次这样的版本,而且会持续很长时间,这主要是为了确保我们在这个领域保持领先地位。

嗯,其他很多公司也会发展得很好,我为他们感到高兴。但是,你知道,ChatGPT 仍然是目前市场上绝对的主导聊天机器人,而且我预计随着时间的推移,它的领先优势只会越来越大。嗯,各种模型都会变得越来越好,但是人们使用某个产品(无论是消费者还是企业用户)的原因,远不止模型本身那么简单。

你知道,我们早就预料到这种情况了。所以我们努力构建一套完整的体系,确保我们的产品能够成为用户最想使用的产品。嗯,我认为竞争是好事,它促使我们做得更好。但我相信我们在聊天领域会取得巨大成功,在企业级市场以及未来几年也会如此。

当然,企业需要不同的产品和服务,但人们通常会想:我知道这家公司是开放的,我也知道如何使用这个聊天软件的GPT界面。所以,策略是:打造最佳模型,围绕它构建最佳产品,并拥有足够的基础设施来大规模提供服务。

Sam Altman:今天早上我在推特上看到一群数学家在互相交流,他们之前对大语言模型(LLM)是否真的有用一直持怀疑态度,但5.2版本的表现彻底改变了他们的看法

虽然模型目前仍需要一些辅助,但它已经能独立完成一些小证明、发现一些新的切入点,这已经足以改变数学家的工作流程了。许多人感叹 5.1 版本已经很接近了,而发布仅五天左右的 5.2 版本则让整个数学研究界意识到:“重要的事情正在发生。”Greg Brockman 也在推文中反复强调 AI 在数学和科学领域的应用,5.2 版本显然已在这些前沿领域引起了强烈共鸣。

Part.03

ChatGPT 用户增长至 8-9 亿

主持人:是的,存在现有优势。ChatGPT今年早些时候的周活跃用户数约为4亿。现在有报道称用户数已达8亿,接近9亿。嗯,但另一方面,像谷歌这样的公司拥有分销优势。所以我很好奇您对这些模型的看法:您认为它们会商品化吗?如果会,什么才是最重要的?是分销?是应用程序的开发水平?还是我没想到的其他因素?

Sam Altman: 我认为用“商品化”形容模型并不准确。不同模型各有优势:日常聊天可能有多种选择,但科学发现则需要处于技术前沿的专业模型。最具经济价值的正是这些前沿模型,我们的目标是保持领先地位。

5.2 是目前全球最出色的推理模型,在科学研究和企业任务中表现卓越。即便在免费模型普及的世界里,最智能的模型依然具有巨大价值。此外,产品、分销和品牌至关重要。例如,聊天机器人领域的“个性化体验”非常吸引人,就像人们习惯使用某种品牌的牙膏一样,这种粘性极强。用户在医疗等场景的神奇体验,让他们与模型建立了深层联系。

在企业市场,竞争优势同样来自个性化。企业通过将数据连接到我们的系统,运行多个代理来处理信息。目前我们已有超过一百万企业用户,今年API业务的增速甚至超过了 ChatGPT。

谈到竞争,谷歌仍是巨大威胁,拥有极强的商业模式和分销优势。如果他们在 2023 年就全力以赴,我们当时的处境会非常糟糕。但目前看来,他们倾向于将人工智能直接套用在网络搜索等旧模式中,而我认为这种“附加 AI”的方式不如从零开始进行“AI 优先设计”来得有效。

Part.04

附加 AI 与 AI 优先设计

Sam Altman: 将人工智能硬塞进现有的做事方式,不如在“人工智能优先”的世界里重新设计一切。这也是我们想做消费级设备的原因之一。虽然在即时通讯应用中加入总结和起草功能很有用,但这并非终极目标。

真正的愿景是让 AI 成为你的代理人,它能与其他人的代理人沟通,判断何时打扰你并处理决策。尽管这需要时间,但我相信未来会出现完全围绕 AI 构建的新产品,而非简单的功能集成,这也是谷歌等巨头的弱点。例如,不应只是把 AI 塞进 Excel,而是要重新思考使用方式,通过“与数据对话”来重构整个后端支持。

主持人:所以,你是先构建后端,然后像操作新软件一样用人工智能与之交互吗?为什么不能直接把它附加到现有系统上呢?

Sam Altman:现有的通讯应用界面并不理想。我更希望 AI 不只是提供总结或草稿,而是能像“代理人”一样深谙我的目标,自主处理事务并定期更新进度,而非让我整天陷入对话中。

让我惊讶的是,ChatGPT 的聊天界面三年来几乎没有本质变化。虽然聊天界面通用性强,但要应对复杂工作,界面必须更具互动性和针对性——AI 应该能根据不同任务生成特定界面(如现在的“画布”功能),并能随信息涌入实时更新

未来 AI 将更具主动性,在后台持续为你工作。其中“记忆”功能极其关键,它能跨会话记住我的旅行计划、导游信息等个人细节。这种深度个性化让 AI 真正了解我的实时状态,提供了极大的帮助。

Part.05

记忆力作为“GPT-2 时代”

Sam Altman: 人类记忆有限,即便最优秀的助理也无法记住你一生说过的每个字、读过的每份文件或工作细节,而 AI 肯定能做到这一点。目前的记忆技术还处于粗糙的“GPT-2 时代”。

我非常期待 2026 年,届时 AI 将能记住你一生的细节并进行深度个性化定制,甚至捕捉到用户本人都未察觉的细微偏好,这将极其强大。此外,计算机能够保存人类的所有想法,虽然这涉及隐私问题,但也意味着我们将与这些机器人建立起真正的联系。

主持人:我认为,这段时间以来最被低估的一点是,人们感觉这些机器人是他们的伙伴,会照顾他们。嗯,我很想听听你的看法。当你想到人们与这些机器人之间的亲密程度——我不知道用“亲密”这个词是否合适——但确实是陪伴关系时,嗯,是否存在一个可以调节的机制,比如,我们得确保人们与这些机器人非常亲近,或者,你知道,我们再进一步调节,保持一定的距离?如果存在这样的机制,该如何恰当地调节呢?

Sam Altman:事实上,想要拥有某种“深层联系”的人数远比我想象中要多。虽然很难找到一个完美的词汇——用“关系”或“陪伴”似乎都不太贴切——但人们确实渴望与人工智能建立某种深层链接。

目前的模型能力已经超出了我的预期。在今年年初,提出这种需求可能还会被视为异类,但现在,即使是那些声称不在意的人,潜意识里可能也希望 AI 聊天机器人能更了解自己、更友好且能提供情绪支持。我认为这种功能有其健康的一面,成年用户理应拥有选择权,来决定自己想要与 AI 互动的深度。当然,我也预见到了一些不那么健康的走向,但肯定也有人只想要最纯粹、最高效的工具。

对于这项技术,社会将通过不断的实验来发现其中的优缺点,并逐渐摸索出合适的边界(参数)。届时,人们将拥有巨大的自主选择权。

主持人:所以你的想法是,基本上应该让用户自己决定互动的程度?

Sam Altman:是的,当然。虽然我们目前还不确定这种发展应该达到什么程度,或者社会允许它发展到什么程度,但我们会给予用户相当大的个人自由。不过,OpenAI 有明确的底线:我们不会像某些服务那样,试图诱导用户与 AI 建立排他性的恋爱关系。我们必须保持开放且谨慎的态度。

主持人:我相信为了提高用户粘性和利润,其他服务肯定会尝试这样做。

Sam Altman:没错。仔细想想,这些可能性确实让人感到害怕,因为一旦出错,后果可能非常严重。

Part.06

企业级应用的战略布局

主持人:您近期提到企业级应用将是 OpenAI 明年的重点。有人认为这是从消费者市场向企业市场的重大转变。您能概述一下这一计划,并谈谈 OpenAI 与 Anthropic 的竞争吗?

Sam Altman:事实上,OpenAI 的战略始终坚持“消费者优先”,这主要基于两个考量:

  • 模型成熟度:早期模型还不够强大,无法满足复杂企业应用的需求,但现在模型正逐步完善。
  • 战略机遇:消费者领域的成功机会极其难得。我们认为,先在消费者领域取得成功,再进军企业领域会容易得多,事实也证明了这一点。

为什么现在是发力企业市场的最佳时机?目前,我们的企业业务增长速度已经超过了消费者业务。鉴于现有模型的水平及明年的发展方向,现在是构建大规模企业业务的绝佳时机。企业用户已经做好了准备,技术层面也已就绪,编程就是一个典型的成功案例。

未来愿景与垂直领域:我们观察到一个趋势:企业不再满足于单一功能,而是需要一个统一的“人工智能平台”。在众多应用场景中,金融和科学这两个垂直领域的快速发展最令我感到兴奋。

Part.07

GDPval标准 —— 评估AI模型经济价值

GDP 指标:衡量 AI 的“知识工作能力”

主持人:Box的CEO Aaron Levy 曾建议我问你关于GDP的值。这是OpenAI 用来衡量 AI 在知识工作任务中表现的指标。根据你们最近发布的评估:

  • 今年夏天发布的 GPT-5 思维模型,在测试中的完成率为 38.8%
  • 而最新的 GPT-5.2 的完成率提升至 70.9%
  • GPT-5.2 Pro 更是达到了 74.1%

这意味着 AI 已经达到了“专家级”水平,能够处理约60%的专家级任务(如制作 PPT、法律分析、编写小型 Web 应用等)。

Sam Altman:没错。这些评估涵盖了大约 40 个不同的垂直领域。核心逻辑是:在这些规模较小、范围明确的任务中,专家是否更倾向于 AI 的输出结果。虽然它目前还无法胜任开发新产品或团队协作这种复杂、开放式的创造性工作,但如果你能以极低的成本,在一小时内获得一个让你有74%概率感到满意的结果,这本身就是巨大的进步。三年前大家还觉得这是不可能的。

知识工作的外包与企业整合

Sam Altman:未来的企业整合将不再局限于编写代码,几乎所有知识密集型任务都可以尝试外包给 AI。虽然企业真正完成这种工作流的整合还需要时间,但其影响将是深远的。

主持人:有位技术文案撰写员提到,他的工作已经从“管理客服团队”变成了“管理机器人团队”。但他也担心,一旦机器人足够好,连他这个“管理者”也不再被需要了。

Sam Altman:我认为“管理 AI”会变得非常普遍。就像任何优秀的管理者一样,虽然你的团队成员(AI)变强了,但这通常意味着你将承担更大规模的工作范围和更多的责任。

对未来就业与转型期的思考

Sam Altman:短期内,我确实对转型期感到担心,这可能会很艰难。但从进化论的角度看,人类天生关注相对地位、渴望表达创造力并追求意义。即使到了 2050 年,我们的生活与今天截然不同,这种对意义的追求也不会消失,经济也不会因此崩溃,反而可能发生积极的显著变化。

AI CEO 与人类监管

Sam Altman:我甚至在思考OpenAI的功能全部自动化、由 AI 担任 CEO 会意味着什么。我对此并不反对,甚至感到兴奋。我不想做一个固执己见、坚持“手工方式更好”的人。

主持人:但 AI CEO 可能会为了获取更多能量和权力做出极端决定。

Sam Altman:显然,AI CEO 必须受人类控制。一个疯狂但合理的比喻是:如果全世界的每个人都是这家 AI 公司的“董事会成员”,可以管控决策、下达指令,并在 CEO 表现不佳时解雇它,而 AI CEO 只是负责执行这个全球董事会的意愿。这种治理架构在未来或许是可行的。

Part.08

GPT6、基础设施与智能需求的愿景

关于 GPT-6 的发布预期

主持人:在进入基础设施话题之前,大家最关心的是 GPT-6 什么时候发布?

Sam Altman:虽然我不确定具体什么时候会给某个模型命名为“GPT-6”,但我预计下一代新模型将比GPT-5有显著的飞跃。目前的计划定在明年(2026年)第一季度

主持人:“显著飞跃”具体指什么?

Sam Altman:虽然目前还没有具体的评估分数,但我们将对面向消费者的模型进行大幅改进。目前,消费者更需要的是体验的提升,而企业端则依然渴求更高的计算能力。我们会针对不同用途,以不同方式优化模型,目标是打造一个让大家都更喜欢的工具。

基础设施与海量计算的愿景

主持人:你们有约1.4万亿美元的投资承诺用于基础设施。你们曾说,目前的计算能力与未来 10 倍甚至 100 倍的需求之间存在巨大差距。你打算如何利用如此庞大的算力?

Sam Altman:我个人最兴奋的是利用海量算力来探索新的科学领域。科学发现是改善世界的关键。虽然现在还处于初步阶段,但历史经验告诉我们,一旦科学探索出现突破,哪怕只是微小的偏离,我们就能找到让它持续变好的路径。

为了实现这一目标,我们需要投入巨大的算力去研发新药、治愈疾病 。一个直观的例子是:我们利用 Codex 构建 Sora 的安卓应用,团队在不到一个月内就完成了。在 OpenAI,由于算力几乎没有限制,Codex 帮我们解决了大部分本需耗费大量人力和时间的工作。想象一下,如果全公司甚至整个社会都能利用这种级别的算力,产品的构建效率将极其强大。

对未来算力需求的“思维实验”

Sam Altman:未来,实时生成的视频界面、企业的业务转型、以及医生的个性化医疗监测,都需要极大规模的算力支持 。

我们可以做一个简单的思维实验:假设目前顶级 AI 公司每天生成约 10 万亿个 token,而全人类(80亿人)每天产出的“token”(语言/思想)假设为人均 2 万个。很快,我们会看到一家 AI 公司产出的 token 总量将超过全人类产出的总和,甚至是全人类的 10 倍、100 倍。这种比较体现了地球上“智力运算”规模的巨变,以及人工智能相对于人类大脑运算量的增长趋势 。

智能需求驱动的未来

主持人:这种对算力的投入,是基于对未来的假设,还是基于目前的清晰认知?

Sam Altman:基于我们目前观察到的事实:模型每进步一个层级,人们的使用意愿就会加强;每次成本降低,需求就会成倍增长。需求会一直增长,从改变世界的大事到日常琐事。

未来的关键不仅在于我们能生成多少 token,还在于生成的速度智能的深度。有些问题需要 AI 思考很久,但用户不想等太久。在面对棘手的医疗问题时,即便消耗更多 token,用户也一定会选择更聪明、更好的模型(比如 5.2 而非 5.0)。我们对智能的需求是多维度的,这种对高质量智能的需求才是核心驱动力。

Part.09

算力豪赌、财务逻辑与“能力过剩”的现实挑战

万亿基建:算力即营收的生存法则

Sam Altman:这种规模下的计算规划非常困难,必须提前很久。比如你提到的 1.4 万亿美元基建计划,我们需要在很长的时间内去消化。建设数据中心、研发芯片、构建电力网络,这些项目耗时极长且能耗巨大。

从一年前到现在,我们的计算能力大约增长了两倍,明年我们还想再翻两倍。目前,收入的增长速度甚至比算力的增长还要快一点。所以,我们至今还没遇到过算力闲置的情况。可以说,如果我们现在拥有双倍的算力,收入也会随之翻倍。

盈利路径:指数级增长的财务逻辑

主持人:既然谈到数字,目前收入在增长,但算力支出也在飙升。据报道,OpenAI 到 2028 年实现盈利前预计将亏损约 1200 亿美元。这种情况将如何改观?转折点在哪里?

Sam Altman:我们的逻辑是:随着收入增长,推理成本在整个算力池中的比例会越来越大,最终它会取代训练成本,成为主要的价值来源。

目前的策略是大力投资训练。如果我们现在停止大幅增加训练投入,我们早就盈利了。但为了长期领先,我们必须坚持这个计划。人类进化使我们对指数增长缺乏直觉,大家很难理解这种财务框架。但我相信,只要有足够的算力,收入就能保持快速增长。目前我们面临的是严重的算力限制,这才是限制收入增长的最大障碍。

市场理性与债务融资的合理性

主持人:市场似乎对你们的债务和巨大支出感到恐慌。如果今年的收入目标是 200 亿美元,而基建承诺高达 1.4 万亿美元,这种平衡如何维持?如果模型发展达到饱和,基建价值是否会缩水?

Sam Altman:我很高兴现在市场多了一些怀疑和理性,此前那种“见一面股价就涨 20%”的狂热是不健康的,我们正走出不稳定的泡沫。

关于债务,我认为在基建领域引入债务是合理的。没有人会质疑 AI 基础设施的长期价值。即便模型发展出现周期性的波动,我依然敢打赌:模型只会变得越来越好,这几乎是确定的。哪怕我们将模型冻结在5.2版本,它能创造的经济价值和营收依然是巨额的。

能力过剩与“滞后效应”:被低估的 AI 价值

Sam Altman:我最近在思考一个“Z 轴”维度,即能力过剩(Capability Overhang)。目前的状况是:模型的能力已经远超世界部署它们的速度,这和我几年前的预期截然不同。

主持人:有报道称,很多企业在实施这些模型时无法获得理想的投资回报,你怎么看?

Sam Altman:我不太认同这种观点。很多企业和程序员甚至表示,即便 5.2 的价格翻十倍甚至一百倍,他们也愿意买,因为其创造的价值太大了。

目前真正的问题出在“官僚主义”和“流程惯性”上。虽然 5.2 版本在 70% 的知识型工作中已经达到了专家水平,但企业改变工作流程需要极长的时间。大家依然习惯于让分析师去手动处理任务。这种滞后效应会给世界带来一系列奇怪的后果——即便是我自己,也发现我的工作流程基本没变,尽管我知道 AI 本可以帮我做得更多。我们需要时间来适应这种“过于聪明”的模型。

Part.10

AI 交互的进化:下一代硬件设备与全新的“AI 云”平台

重构硬件:从“被动工具”转向“主动智能”

主持人:关于你们正在研发的硬件设备,我听说它只有手机大小且没有屏幕。如果这只是一部没有屏幕的手机,为什么不直接把它做成一个应用程序呢?

Sam Altman:首先,我们要推出的不是单一设备,而是一个系列的小型设备。 我认为人类使用电脑的方式正在发生根本性转变:从一种“愚钝的被动操作”转向一种“智能的主动操作”。未来,这种智能能够理解你的整个生活、处境,以及你周围发生的一切。

我认为目前的设备形态(如屏幕和键盘)并不适合这个全新的世界。 现在的电脑有太多的设计限制,比如键盘的设计初衷其实是为了减慢输入速度,而图形用户界面(GUI)也限制了我们的交互方式。

想象一下,如果你在采访时没开电脑,设备能悄悄提醒你漏掉的问题,这种主动性是现有硬件无法实现的。 当这种难以置信的全新 AI 功能出现时,如果我们还沿用旧的硬件形态,那才奇怪。

重新定义云业务:构建企业级 AI 一站式平台

主持人:聊聊云计算。我们收到一位听众的反馈,说他们公司正从 Azure 迁移,直接集成 OpenAI。他们的重点是投入数万亿个 Token 来驱动 AI 体验。这是否意味着你们计划打造一个庞大的云业务?

Sam Altman:关于计算需求和企业战略,目前企业明确想要购买的 Token 数量极其庞大,我们预计到 2026 年仍然无法满足所有需求。我们的核心战略是成为企业的一站式平台。 企业告诉我们,他们需要为公司定制的 API、ChatGPT 企业版,以及一个能够安全运行所有代理(Agent)并托管私有数据的平台。

主持人:你们的目标是把它打造成像 AWS(亚马逊云)或 Azure(微软云)那样的巨头吗?

Sam Altman:我认为它与传统的云计算并不相同。我们并不打算提供网站托管这类基础服务,而是要打造一种“AI 平台”。 企业虽然仍会使用传统的“网络云”,但在处理内部事务和提供智能服务时,他们需要一个专门的 AI 平台来运行。 虽然它同样运行在物理硬件上,但这将是一个完全不同的产品类别。

Part.11

AI 增强下的知识边界突破

主持人:你预测明年会有新发现,五年内会有重大发现。这指的是模型独立完成的,还是指与模型协同工作的人员?是什么让你确信这些发现一定会发生?虽然目前 AI 能主动提出问题似乎还比较遥远,但人们确实已经在利用模型进行探索。

Sam Altman:我对新知识的产生感到非常兴奋。我认为人类进步的本质就是不断制造更好的工具,然后利用这些工具去完成更多、更伟大的事情,并在过程中制造出更先进的工具。 这就像搭“脚手架”一样,我们一层一层地向上攀登,一代接一代地进行发现。虽然提问的主体依然是人类,但这丝毫不会降低工具本身的价值。

今年年初,我原本以为这种“小发现”要到 2026 年才会开始出现。但令人惊喜的是,在 2025 年底我们就已经看到了它们的萌芽。 尽管这些发现目前还非常微小,我不希望夸大其词,但对科学界而言,“从无到有”的突破具有极其深远的意义。

回顾三年前,我们刚推出模型时,它显然还无法为人类知识总量做出任何贡献。 展望未来五年,我认为通往重大发现的旅程就像 AI 发展的“爬坡路”:每个季度进步一点点,然后突然在某个时刻,我们会惊叹于那些被 AI 增强后的人类——他们竟然做到了五年前的人类根本无法想象的事情。

无论这最终归功于更聪明的人类还是更聪明的模型,只要科学能取得实质性的发现,我都非常高兴。

Part.12

重新定义 AGI:从“持续学习”到“超级智能”的飞跃

AGI 的“缺失环节”:像幼儿一样的持续学习

主持人:在你之前的访谈中,你提到 GPT-5 在几乎所有方面都比人类聪明。如果这就是现状,难道不就意味着我们已经实现了通用人工智能(AGI)吗?还是说 AGI 这个术语已经变得毫无意义了?毕竟现在的模型,比如 GPT 5.2,在各种测试中智商评分高达 140 到 150,连各领域专家都对其能力感到惊叹。

Sam Altman:我们确实讨论过很多评估指标(如 GDP 知识工作基准),但目前的模型还缺少一个核心要素:意识到自己的无知并进行持续学习的能力。真正的智能应该像幼儿一样:如果它今天做不到某件事,它能意识到这一点,去学习、去理解,然后在第二天把事情做对。

这种持续学习的能力是我们构建系统的关键部分。虽然很多人认为目前的模型已经达到了 AGI 水平——因为它能完成绝大多数知识任务,甚至开始发现新的科学知识——但我认为 AGI 的定义目前非常模糊。我们正处于一个模糊的过渡期。

超级智能:比“AI 增强版人类”更强

Sam Altman:既然 AGI 的理解容易出现偏差,我更希望为“超级智能”设定一个明确的定义。

我建议的候选定义是:当一个系统能够比任何人类(即便这个人类拥有最强 AI 的辅助)更好地胜任高难度管理工作时——比如担任美国总统、大型公司 CEO,或领导一个顶尖科研实验室——它就达到了超级智能的水平。

国际象棋启示录:纯 AI 对人类干预的超越

Sam Altman:国际象棋的发展历程是一个很有趣的参考框架。 在“深蓝”事件后,曾出现过一段“半人半机”合作效果最好的时期。 但随后,人类的介入反而会让结果变得更糟,最终最聪明的是那些完全未经人类干预的 AI,因为它们拥有极高的纯粹智能。

我认为这种“AI 独立运行优于人机协作”的阶段,可以作为超级智能的一个有趣框架。 虽然距离这一天还有很长的路要走,但我希望这次我们能达成一个更清晰的定义。

不可思议的进化速度

主持人:作为你们三年的深度用户,我亲眼目睹了产品的巨大进步,简直无法想象未来它会进化成什么样。

Sam Altman:谢谢。我们会继续努力,让它进化得更快、更好。

主持人:这是我们第二次对话了,我很感激你两次都如此坦诚。非常感谢你抽出时间。感谢大家的收听和观看。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-12-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI男神说 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档