微信扫码
添加专属顾问
我要投稿
Google I/O 大更新,AI功能升级,订阅策略解析。 核心内容: 1. Google I/O 更新概览,AI新功能体验分级 2. Gemini 2.5 模型性能对比及订阅使用情况 3. AI搜索功能革新,Google市值蒸发背后的故事
这合理吗?(熬夜破防版)
今天凌晨更新的 Google 掏出了一大堆好东西,
但是在 CEO 皮查伊精准的刀法下,
分为了free
($0)、pro
($19.99)、ultra
($249.99) 三档的订阅套餐,看了一早上各种盘点,想要试试带原生音效的 AI 视频模型 Veo3,结果要先充1800,
大大小小23+个更新,体验入口、形式都不一致,这我能忍?OpenAI Pro 都不能让我每个月准时充,
于是我和我的钱包一拍即合,
将三个档位的账号都弄了一个,把这次更新分为了体验级,实用级、不差钱级。让大家可以清晰知道要不要订阅,以及订阅后能体验到百分之多少的新能力。
看看 veo3 生成的视频,自带音效,太值得听听了
01|Gemini 2.5 模型四连
Gemini 2.5 Pro 的预览版已经上线几周了,
模型得分没话说,人类终极测试
、AIME数学竞赛
、MMMU(视频理解)
等多个测试集已经超 OpenAI o3-mini、Claude 3.7 Sonnet、DeepSeek R1了。
But,这个模型目前免费用户用不了,Pro 可以用基础版,
Ultra 可以在 Gemini 2.5 Pro 基础上开启Deep Think
模式。
简单来说,Deep Think 模式下 Gemini 2.5 Pro 支持生成多条推理链,交叉验证后,会把投票最高的一条作为答案。这个方法让 2.5 Pro 在 MMMU 上打败了 OpenAI o3。
虽然在 Ultra 套餐里面说了可以用,但是 deep think 目前还是大期货。
除了Pro外,Gemini 2.5 系列的编码之王就是 Flash 了,
好消息是所有套餐都可以用上。
现在已经可以在 ai studio 上用了预览版:
而且从指标上看,长文本和数据能力一骑绝尘,甚至超过了 Claude 3.7 sonnet。
还有还有,一个新的文本扩散模型 Gemini Diffusion
,
与主流的、GPT 使用的 Transformer 框架不同,Diffusion 不直接生成文本,而是通过学习逐步细化噪声
来生成。
这样的好处是推理速度可以达到每 12 秒 10095 token,是 flash 的3倍。
但这个模型就跟订阅套餐没啥关系了,需要申请等待列表(链接较长就放在评论区啦)
02|AI搜索
这应该是这场发布会里最激进的更新了。
如果使用搜索的次数较多,
AI摘要(AI Overviews)
这个功能应该不算陌生,当搜索一些事实性的问题的时候,在顶部的AI摘要会根据搜索结果生成概要以及信息来源,
可能是AI摘在过去一年带来了10%流量增长,
也可能是时间节点到了,苹果 Safari 明示要引入 AI 搜索的时候,Google 的市值蒸发了1兆830亿,
总之,传统的搜索网页被彻底否决了,
对话框形式的 AI Mode 正式上线,
且这个功能目前没有任何套餐限制。
发动钞能力的我也是前后体验了几十次,这篇文章的数据和事实性信息都是我跟 AI mode 对话得到的。
但体验上跟开了联网搜索的 Gemini 2.5 pro 没太大的区别。
不过比起 Deep Research(深度研究),
AI Mode 参考的信息源不算多。
至于发布会上说的可以通过过去搜索记录
、邮件信息
来个性化搜索、Deep Search(深度研究)
等还没有看到。
除了文本输出,AI mode 本身还支持买门票、买衣服、订餐厅等操作,还可以尝试 AI 试衣:
讲完了最颠覆的,
那一定要说说最值钱的了。
03|AI视频&生图
史上最贵的AI视频模型 veo2 引来了新一代:
veo3
没想到最核心的提升不是画质、逼真度、物理模拟性,而是原生音频
。
之前的工作流是先生成无声视频,再让一个新的模型边看画面边配音,缺点就是容易音画不同步。veo3 生成的视频里可以自带背景音效、环境声,甚至是人物对话。
但是 veo3 真的太高贵了,只开放给 Ultra 用户,150的Pro用户只能用720p的 Veo2,
效果是真的强,我的感受是1800里有1400都是归veo3的。坏消息是能力变强了,价格一点没下降,
假设一条视频都没浪费,一个月也就能生成80个。
跟veo3一起出来的是AI视频工作台flow
,
Pro 和 Ultra 用户都能用
类似于 OpeAI Sora 的故事版,支持视频生成、剪辑和延长,
等我多玩几天玩明白了,再做一期veo3专题
? labs.google/fx/tools/flow
除了视频外,
这次imagen4
还把图片质量追回来了,更新了图片里的文本效果,
更6的是,出图功能不消耗积分,可以无限制生图。
我拿 gpt4o 的提示语试了一下
? labs.google/fx/zh/tools/whisk
不过就目前测试下看的话,不太会写中文。
对了,Pro 用户目前用不了 Imagen4 。。。
04|AI播客
AI 播客就是 NoteBookLM 带起来的,前段时间也支持上了中文,
移动端早就应该做了,
目前登陆了安卓和ios平台,可以随机将链接转成笔记和知识。
05|跟订阅无关的更新们
相当于 OpenAI Operator,浏览器使用 Browser Use 的升级版,
Mariner 现在可以同时执行10个任务,而且还学会了 RPA 那套,我成功操作一次,Mariner 就可以重复运行,
不过目前只通过 API 开放给开发者,
还不是非常清楚是不是通过操作的视频来学习如何操作软件,
蹲个后续吧。
? deepmind.google/models/project-mariner/
对标隔壁 OpenAI CodeX,
能修复 Bug、更新版本、编写测试、写代码等等。每天提供5次免费任务。
跟 Xreal 合作推出的支持安卓 XR 的智能眼镜,支持实时导航、翻译和摄像功能,不过现场演示的时候卡住了。。。
跟三星联动,第一台安卓XR设备,长得果里果气的。
认得出哪个是 Apple Vision Pro 吗?
通过六个摄像头组成的矩阵来扫描用户,实现每秒60帧的毫米级精度实时头部追踪
这些更新就跟订阅没太大关系了,大部分都处于是早期体验状态。
呼!
盘点完后心念通达多了,
现在这个阶段的1800基本就是为了 veo3 服务的,
还记得 I/O 2024的时候,
Google 被 OpenAI 的 GPT-4o 打到抬不起头,
今年,轮到 GPT5 还没放出来,没能顺利截胡这一大堆更新了,
现在,我反而是希望I/O 2026能不能学学OpenAI,多开几场,
给我留点试玩的时间,
这么多好东西,一股脑放出来,还是有些东西容易被错过了,
毕竟AI更新已经那么快了,
你Google质量都这么高了,
不那么卷,peace一点也是可以的。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-22
LLM 协作革命:Group Think 如何重塑推理边界 (万字)
2025-05-22
AI服务架构的范式跃迁:从“模型即服务”到“Agent即服务”
2025-05-22
微软CPO: AI时代新产品的成功要素
2025-05-22
直播回顾 | 不再“纸上谈兵”,大模型能力如何转化为实际业务价值
2025-05-22
OpenAI放大招!核心API支持MCP,一夜改变智能体开发
2025-05-22
一文搞懂大模型的分词器(Tokenizer)
2025-05-22
Gemini Diffusion:1500 token/秒,快如闪电!
2025-05-21
OpenAI最怕的对手来了!Google用「思考预算」重新定义AI生产力
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-05-18
2025-05-18
2025-05-17
2025-05-13
2025-05-13
2025-05-12
2025-05-11
2025-05-09