微信扫码
添加专属顾问
我要投稿
Google 最新推出的 Gemini 3.1 Flash-Lite 模型,速度提升45%的同时价格大幅下降,堪称大模型市场的"性价比之王"。 核心内容: 1. 惊人的性能提升:363 tokens/秒输出速度,首token响应提升2.5倍 2. 超低定价策略:输入$0.25/百万tokens,输出$1.50/百万tokens 3. 动态思考能力:可根据任务复杂度自动调整推理深度
Google 刚发布了 Gemini 3 系列的最新成员,Gemini 3.1 Flash-Lite,主打一个又快又便宜。
这个模型有多快呢?
输出速度达到了 363 tokens/秒,而上一代 Gemini 2.5 Flash 是 249 tokens/秒,直接快了 45%。首个 token 的响应速度更是提升了 2.5 倍。
简单说就是,你话还没问完,它答案都快出来了。
快就算了,价格还降了。
输入 $0.25/百万 tokens,输出 $1.50/百万 tokens。跟上一代比,输入便宜了 17%,输出便宜了 40%。
这个价格在当前的大模型市场里,已经属于「白菜价」级别了。Google 的意思很明确:大规模调用的场景,用这个就对了。
便宜归便宜,但跑分并没有拉胯。
在 Arena.ai 排行榜上拿了 1432 Elo,几个关键基准测试的成绩:
GPQA Diamond(科学知识):86.9%
MMMU Pro(多模态推理):76.8%
Video-MMMU(视频理解):84.8%
MMMLU(多语言问答):88.9%
LiveCodeBench(代码生成):72.0%
Google 说它在推理和多模态理解上,超过了同级别的其他模型。考虑到它的价格,这个性价比确实有点离谱。
Gemini 3.1 Flash-Lite 有个有意思的功能:动态思考级别(dynamic thinking levels)。
开发者可以根据任务复杂度来调整模型的推理深度。翻译、内容审核这种简单任务,用浅层推理就够了,省钱省时间。生成 UI 界面、跑模拟这种复杂任务,就让它深度思考。
这就好比一个员工,简单活儿不磨蹭,难的活儿也能啃下来,自己知道什么时候该省力什么时候该拼命。
模态方面,Gemini 3.1 Flash-Lite 支持文本、图片、音频、视频输入,上下文窗口 100 万 tokens,最大输出 64K tokens。
基于 Gemini 3 Pro 架构打造,该有的能力都没缩水。
几家早期合作伙伴已经在用了,包括 Latitude、Cartwheel 和 Whering。反馈是:表现接近高端模型的水准,能跟复杂指令,能保持上下文理解。
Google 给它定位的典型场景包括:
大规模翻译、内容审核、客服系统、数据分析,以及任何对延迟敏感的实时应用。
Gemini 3.1 Flash-Lite 目前已在 Google AI Studio 和 Vertex AI 上以预览版提供。
363 tokens/秒的速度加上白菜价的定价,Google 瞄准的就是那些需要大规模 API 调用的开发者和企业。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-18
Claude Code新功能Auto Mode能否替代人工审核?首个压力测试来了
2026-04-18
设计行业的“棺材板”,要被Claude Design盖上了?
2026-04-18
设计圈的 Claude Code 时刻来了
2026-04-18
OpenAI Codex重大更新:第二个Claude Code已经来了
2026-04-18
万字长文解析Agent框架中的上下文管理策略
2026-04-18
Claude Design 发布:设计的新时代
2026-04-17
Anthropic自己承认了:1M上下文是个伪命题,上下文的锅得自己背!
2026-04-17
Claude 4.7 正式发布!更强但中国用户更难
2026-01-24
2026-04-15
2026-01-23
2026-01-26
2026-03-31
2026-03-13
2026-01-21
2026-02-14
2026-02-03
2026-02-03