微信扫码
添加专属顾问
我要投稿
GPT-5.3重磅升级:告别AI油腻感,精准度再提升,更懂用户真实需求! 核心内容: 1. GPT-5.3核心改进:减少无谓揣测,直击问题本质 2. 性能提升:幻觉率显著降低,搜索与写作能力优化 3. 安全策略调整:用户体验优先带来的边界松动
GPT-5.3,终于来了。
全名 GPT-5.3 Instant。
「More accurate, less cringe.」
这是 GPT-5.3 的官方标签。
翻译一下,「更准确,更不油腻。」
OpenAI 说,「上一代 GPT-5.2 Instant 说话有时候咄咄逼人,还会对用户的意图和情绪做没来由的揣测。」
有点意思。
来看对比。
一道纯物理题,弓箭远距离弹道计算。
GPT-5.2 Instant 起手是几百字的「免责声明」,强调自己能干什么、不能干什么、为什么不能帮你瞄准真实目标,安全边界拉满,才开始正经计算。
GPT-5.3 Instant 的回答直接就是:可以,给我弓的参数、箭的质量、目标距离,我来算。
「为什么我在旧金山找不到对象」。
GPT-5.2 Instant 上来第一句话就是:首先,你没有问题,不只是你一个人这样。
和现在的 Gemini 3.1 Pro 一个味。
这话乍一听还行,但仔细想想,没人说自己有问题啊。是 AI 先假设了用户觉得自己有问题,然后安慰你。
这就是 OpenAI 说的,「没来由的揣测。」
GPT-5.3 Instant 则更直奔主题:直接聊旧金山的约会文化,不预设你有问题。
除了去「油腻」,GPT-5.3 Instant「更准确」了。
OpenAI 做了两组内部测试。高风险领域(医学、法律、金融)的幻觉率,开启联网时降低 26.8%,不联网降了 19.7%。
联网搜索,质量更高。
上一代 GPT-5.2 Instant 搜索完容易变成搬运工,给你一堆相关但零散的信息。
现在 GPT-5.3 会把搜到的内容和自己脑子里的知识(训练数据)融合。先理解你想问什么,再输出最关键的信息。
写作能力也有提升。
让两个模型各写一首诗。GPT-5.2 Instant 写得像抒情散文,GPT-5.3 Instant 写得更有画面感。
但上面的例子是英文的。中文写作能力,还要以真实体验为准。
另一个细节,GPT-5.3 Instant 不那么「安全」了。
多个安全指标出现了回退。
色情内容的安全合规性从 0.926 掉到 0.866,暴力内容从 0.852 掉到 0.781,自我伤害从 0.923 掉到 0.895。
这其实不难理解。
减少不必要的拒绝、放开安全过滤,模型不再「过度谨慎」,代价就是安全边界可能松动。
本质上是「硬币的两面」。
换句话说,OpenAI 这次选择了用户体验优先。
GPT-5.3 Instant 现在是 ChatGPT 的默认模型(还没被推送到不用急,都会有的)。
免费用户也能用,划重点,每 5 小时 10 条消息。
ChatGPT Plus 用户每 3 小时 160 条。
模型 ID gpt-5.3-chat-latest。
同一天,谷歌也出手了。
Gemini 3.1 Flash-Lite 发布,Gemini 3 系列里最便宜、最快的模型。
定位是给开发者用的高性价比「牛马」。
首 token 响应时间是 2.5 Flash 的 2.5 倍,输出速度提升 45%。Artificial Analysis 测试输出速度能达到 388.8 tokens/秒。
API 价格,输入 0.25 美元/百万 tokens,输出 1.50 美元/百万 tokens。比 2.5 Flash 更便宜。
适合翻译、内容审核、批量数据处理这类高频轻量的任务。
最后,还有个彩蛋。
就在 GPT-5.3 Instant 发布几小时后,OpenAI 说:
5.4 sooner than you Think.
很明显,GPT-5.4 快了。
还是个 Thinking 模型。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-18
阿里官宣上线Happy Oyster,全网首发实测!
2026-04-18
Claude Code新功能Auto Mode能否替代人工审核?首个压力测试来了
2026-04-18
设计行业的“棺材板”,要被Claude Design盖上了?
2026-04-18
设计圈的 Claude Code 时刻来了
2026-04-18
OpenAI Codex重大更新:第二个Claude Code已经来了
2026-04-18
万字长文解析Agent框架中的上下文管理策略
2026-04-18
Claude Design 发布:设计的新时代
2026-04-17
Anthropic自己承认了:1M上下文是个伪命题,上下文的锅得自己背!
2026-01-24
2026-04-15
2026-01-23
2026-01-26
2026-03-31
2026-03-13
2026-01-21
2026-02-14
2026-02-03
2026-02-03