首页
学习
活动
专区
圈层
工具
发布

谷歌发布Gemini 3 Flash,速度比上一代翻3倍、推理超过Pro级别!

朋友们,谷歌深夜再放大招,Gemini 3 Flash问世了!

在OpenAI发布image 1.5后,谷歌紧接着就发布了3 Flash。那为什么之前发布Deep Research大家反应没那么大呢,主要是因为这个东西他离咱普通人太遥远了,这次的Flash不仅成本更低响应速度和推理能力都得到了大幅度提升,也就是普通模型终于也得到史诗级强化了!

这篇文章,我们不做简单功能罗列,而是拆解 Gemini 3 Flash 的技术取舍、能力边界,以及它对 AI 行业意味着什么。

在 Gemini 系列中,Flash 的定位一直很清晰:

不是追求极限能力,而是追求可部署性。

但 Gemini 3 Flash 的变化在于它第一次在推理能力、响应速度和成本控制三者之间,做到了一个非常罕见的平衡点。

简单来说就是三句话:

- 速度比上一代快3倍

- 推理能力接近甚至在部分任务上超过Gemini 3 Pro

- 成本远低于Pro级模型

这意味着谷歌不再是把强推理留给高阶、低频、专家级场景,而是开始把推理能力下放到默认的普通模型中。

在基准测试中,3 Flash 大幅超越了其前代产品,并在某些方面与 Gemini 3 Pro 和 GPT 5.2 等其他前沿模型不相上下,甚至超过了3 Pro。

在 GPQA 钻石级(科学知识)上其准确率达到 90.4%,在人类最后的考试(学术推理)上其在不使用工具时的得分为 33.7%,在 MMMU Pro(多模态理解和多模态推理上)其达到 81.2% 的正确率。

Gemini 3 Flash 目前已正式上线Gemini 应用,并将全面取代Gemini 2.5 Flash,成为新的默认模型。与以往不同的是,Google 在模型选择上为 3 Flash 提供了两种使用模式,以适配不同复杂度的任务需求。

一个是Fast,用于快速选项用于快速解答问题;另一个是Thinking,用于思考选项用于解决复杂问题。它也允许用户提出更细致的问题。

谷歌指出,目前JetBrains、Figma、Cursor、Harvey 和 Latitude 等公司已经在使用 3 Flash 模型,该模型可以通过 Vertex AI 和 Gemini Enterprise 获取。

与此同时,谷歌正在向所有美国用户开放配备生成式用户界面以及搭载了 Nano Banana Pro 的 Gemini 3 Pro。对于开发者而言,3 Flash 预览版现已可通过 AI Studio、Google Antigravity、Gemini CLI 和 Android Studio 获取。

Gemini 3 Flash 价格曝光和 Gemini 2.5 Flash 差不多一样,保留了 Gemini 3 Pro 的多模态与推理能力,优化了响应速度与执行效率。

运行成本大幅降低,仅需:

输入:$0.50 / 100 万 tokens

输出:$3.00 / 100 万 tokens

完成同等任务时平均使用 30% 更少 tokens

Gemini 3 Flash 支持以下多模态输入:

如果只看参数,Gemini 3 Flash并不是Google最强的模型;

但如果从产品策略、成本结构和真实使用场景来看,它可能是Google迄今最关键的一次模型发布。在 Gemini 3 Flash 身上,Google 终于明确回答了一个问题:

AI 真正进入大规模应用时代,靠的不是最强模型,而是足够聪明 + 极低延迟 + 可控成本的组合。

以上就是关于Google发布的最新资讯了,如果你觉得还不错,麻烦一键三连!!

我是赛博奇,让我们一起奔向AGI世界!

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OIs9RJCHQ7yaTTHRZctH50gg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券