朋友们,谷歌深夜再放大招,Gemini 3 Flash问世了!
在OpenAI发布image 1.5后,谷歌紧接着就发布了3 Flash。那为什么之前发布Deep Research大家反应没那么大呢,主要是因为这个东西他离咱普通人太遥远了,这次的Flash不仅成本更低响应速度和推理能力都得到了大幅度提升,也就是普通模型终于也得到史诗级强化了!
这篇文章,我们不做简单功能罗列,而是拆解 Gemini 3 Flash 的技术取舍、能力边界,以及它对 AI 行业意味着什么。
在 Gemini 系列中,Flash 的定位一直很清晰:
不是追求极限能力,而是追求可部署性。
但 Gemini 3 Flash 的变化在于它第一次在推理能力、响应速度和成本控制三者之间,做到了一个非常罕见的平衡点。
简单来说就是三句话:
- 速度比上一代快3倍
- 推理能力接近甚至在部分任务上超过Gemini 3 Pro
- 成本远低于Pro级模型
这意味着谷歌不再是把强推理留给高阶、低频、专家级场景,而是开始把推理能力下放到默认的普通模型中。
在基准测试中,3 Flash 大幅超越了其前代产品,并在某些方面与 Gemini 3 Pro 和 GPT 5.2 等其他前沿模型不相上下,甚至超过了3 Pro。
在 GPQA 钻石级(科学知识)上其准确率达到 90.4%,在人类最后的考试(学术推理)上其在不使用工具时的得分为 33.7%,在 MMMU Pro(多模态理解和多模态推理上)其达到 81.2% 的正确率。
Gemini 3 Flash 目前已正式上线Gemini 应用,并将全面取代Gemini 2.5 Flash,成为新的默认模型。与以往不同的是,Google 在模型选择上为 3 Flash 提供了两种使用模式,以适配不同复杂度的任务需求。
一个是Fast,用于快速选项用于快速解答问题;另一个是Thinking,用于思考选项用于解决复杂问题。它也允许用户提出更细致的问题。
谷歌指出,目前JetBrains、Figma、Cursor、Harvey 和 Latitude 等公司已经在使用 3 Flash 模型,该模型可以通过 Vertex AI 和 Gemini Enterprise 获取。
与此同时,谷歌正在向所有美国用户开放配备生成式用户界面以及搭载了 Nano Banana Pro 的 Gemini 3 Pro。对于开发者而言,3 Flash 预览版现已可通过 AI Studio、Google Antigravity、Gemini CLI 和 Android Studio 获取。
Gemini 3 Flash 价格曝光和 Gemini 2.5 Flash 差不多一样,保留了 Gemini 3 Pro 的多模态与推理能力,优化了响应速度与执行效率。
运行成本大幅降低,仅需:
输入:$0.50 / 100 万 tokens
输出:$3.00 / 100 万 tokens
完成同等任务时平均使用 30% 更少 tokens
Gemini 3 Flash 支持以下多模态输入:
如果只看参数,Gemini 3 Flash并不是Google最强的模型;
但如果从产品策略、成本结构和真实使用场景来看,它可能是Google迄今最关键的一次模型发布。在 Gemini 3 Flash 身上,Google 终于明确回答了一个问题:
AI 真正进入大规模应用时代,靠的不是最强模型,而是足够聪明 + 极低延迟 + 可控成本的组合。
以上就是关于Google发布的最新资讯了,如果你觉得还不错,麻烦一键三连!!
我是赛博奇,让我们一起奔向AGI世界!