2026年4月23日 周四晚上19:30,来了解“从个人单点提效,到构建企业AI生产力”(限30人)
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

刚刚!Codex 居然能直接画图了,OpenAI 凌晨甩出 Image 2.0

发布日期:2026-04-22 07:45:56 浏览次数: 1976
作者:AI智见录

微信搜一搜,关注“AI智见录”

推荐语

OpenAI 再次突破想象,Codex 不仅能写代码还能直接生成专业架构图,开发效率再上新台阶!

核心内容:
1. Codex 原生集成 Images 2.0 实现代码与绘图无缝衔接
2. 中文渲染和架构图专业度大幅提升的突破性表现
3. Images 2.0 在分辨率、知识更新和细节控制上的技术升级

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

 

今天凌晨 3 点多,OpenAI 在 X 上扔了一条大消息:ChatGPT Images 2.0 正式发布。官方给它的定位是"state-of-the-art 的图像模型",能处理复杂的视觉任务,生成精准且立刻可用的画面。

但真正让我眼睛一亮的,是官方描述里的这一句话:

"从今天起,所有 ChatGPT 和 Codex 用户都能用。"

没错,以前专心写代码的 Codex,现在也能画图了。

我第一时间上手试了一下

趁着热乎,我打开自己的 Codex(v0.122.0,模型是 gpt-5.4),丢了一句话过去:

画一个图:SaaS 架构应该是什么样子?

没配置任何图像模型的密钥,没装额外插件,Codex 直接就开画了。一分钟不到,一张分层清晰的 SaaS 架构图就扔到了本地目录 .codex/generated_images/ 下。

Codex 生成的 SaaS 架构图

扫一眼就能看出完成度:

  • • 分层清晰:从上到下依次是用户层、接入层、应用层(多租户)、平台能力层、数据层
  • • 支撑能力单独拉出:右侧竖着一条"可观测性与安全"纵向区,涵盖监控、告警、链路追踪、审计、密钥管理
  • • 设计原则做成小便签:左下角贴了一张橙色的"核心设计原则",列出多租户隔离、弹性扩展、高可用、自动化运维四点
  • • 图例规范:底部用不同的线型区分了同步请求、异步数据流、支撑与集成三种关系

最让我意外的是中文渲染。以前让 AI 画带中文的架构图,要么字糊成一团,要么把"业务服务"写成乱码。这次从"多租户 SaaS 平台"到"文件存储 OSS/S3",所有中文标签都清清楚楚,连中英文混排都排版得整整齐齐,比此前的版本好了不是一点半点。

更关键的是整个过程:不用配图像模型的密钥、不用切到 ChatGPT 网页、不用跳出编码流程。在终端里写代码,顺手就把配图生成了。

这就是 Codex 原生接入 Images 2.0 的价值:编程 Agent 第一次有了一支画笔

一句话概括这次更新

OpenAI 把这次的图像模型叫做 Images 2.0,底层模型的代号是 gpt-image-2,API 也同步开放。几个关键数字先抛出来:

  • • 最高支持 2K 分辨率
  • • 宽高比从 3:1 到 1:3 全覆盖
  • • 知识截止到 2025 年 12 月
  • • 带思考(thinking)的图像生成先开放给 ChatGPT Plus、Pro 和 Business 用户,企业版即将跟进

相比两年前的 DALL-E 3,Images 2.0 肉眼可见的一个进步是:它真的会写字了。那些年被网友截图调侃过的拼写错误(比如把 "enchilada" 画成 "enchuita"、把 "churros" 画成 "churiros"),这次基本绝迹。

更精确的指令执行和细节控制

OpenAI 给了一个很直观的演示:一盘米饭。放大到极致,每一粒米的颗粒感、反光、影子都交代得清清楚楚。旁边放一本手写笔记本,字迹是连贯的英文手写体,能正常读通。

这一直是图像模型的老大难问题。小号字体、图标、UI 元素、密集的构图、细微的风格约束,以前随便一个就能把模型搞崩。Images 2.0 声称把这些细节全部拉到了可用水平,而且一次性最高能输出 2K 分辨率的画面。

对设计师来说这很关键。以往 AI 生成的图只能当"灵感草图",线稿、细节、字体全要人工重画。Images 2.0 如果真能做到官方宣传的水准,它就从"参考稿"变成了"可直接交付的素材"。

跨语言能力有了明显提升

Images 2.0 这次专门强调了非英文文本的渲染,日语、韩语、中文、印地语、孟加拉语都在优化名单里。

官方放了一张日式漫画的样例,四格分镜、对白、拟声词 "ゴゴゴ" 全都排版到位,甚至连 "羽ペン"(羽毛笔)这种复合词都写对了。熟悉日漫套路的读者应该能感受到,这不是单纯"生成一张日文图",而是模型真的理解了漫画的视觉语言。

这背后的意义是,图像模型正在从"照着画"走向"理解着画"。以前你让它画一张带中文的海报,它可能把"开业大吉"画成一堆像汉字又不是汉字的符号。现在它能当真正的文字来写,字形、排版、语序都在线。

宽高比放开到 3:1 和 1:3

这是很实用的一个升级。以前生成横幅广告、PPT 封面、社交媒体卡片、长海报,宽高比卡死在 1:1、16:9 几个常见档位,用起来很别扭。

Images 2.0 直接把范围拉到 3:1 到 1:3。横的可以做 Banner、幻灯片、封面图,竖的可以做海报、长图文、朋友圈九宫格。官方甚至放了一张超长竖图的拔河场景,身高比例被夸张拉伸,但人物结构完全没崩。

风格的精致与照片写实

Images 2.0 能同时驾驭照片、电影静帧、像素艺术、漫画等多种视觉语言,在纹理、光影、构图和细节上都更一致。

官方特别提到了几个可以直接落地的场景:游戏原型制作、分镜设计、营销创意、特定媒介或类型的素材生成。对游戏开发者和独立创作者来说,这意味着很多前期开发环节可以被压缩到几个 prompt 里。

现实世界的智能:它能读懂内容再画

这可能是 Images 2.0 区别于其他图像模型的核心能力。官方给的示例是康托尔对角线法(Cantor's Diagonalization),一个数学证明。模型不仅画出了清晰的分步图示,每一步的数学表达式、符号、逻辑关系都正确。

这意味着它不再是单纯的"美学引擎",而是把文本推理能力接进了图像生成。OpenAI 给它的定位很明确:从文案撰写到数据分析再到设计构图,一条龙做完。

说白了,以前的图像模型像艺术家,现在的 Images 2.0 更像是会思考的设计师

Codex 也能画图,到底意味着什么

回到开头那个点。Codex 是 OpenAI 家的编程 Agent,原来主要面向写代码的开发者。现在把图像生成塞进去,实际意义是什么?

最直接的场景有几个:

  • • 前端开发:一边写 React 组件,一边让 Codex 直接生成对应的 Icon、Banner、空状态插画,不用再切到别的工具
  • • 产品原型:写 PRD 时同步让 Codex 画 UI 草图、流程图、架构图
  • • 文档与演示:写技术文档时自动生成配图,做汇报时直接出 PPT 封面
  • • 游戏与素材:写游戏逻辑时同步生成角色、场景、UI 素材

对 Agent 工作流来说,这是一次能力扩展。以前 Agent 只能"生成代码 + 写文字",现在能"生成代码 + 写文字 + 画图",一套流程里闭环的事情更多了。

过去几个月,Codex 一直在往"完整软件工厂"的方向上走。代码、测试、部署、文档都在一个 Agent 里搞定,现在加上图像生成,基本上一个独立开发者需要的能力栈齐全了。

可用性、API 和定价

Images 2.0 从今天起向所有 ChatGPT 和 Codex 用户开放。带思考的图像生成(Images with thinking)是 Plus、Pro、Business 用户先用,企业版稍后跟进。手机端记得更新到最新版。

API 这边,模型 ID 是 gpt-image-2,已经可以调用。OpenAI 暂时没给出完整的定价表,只说"价格取决于质量和分辨率"。想接入到自家产品里的团队可以先跑几个 demo 看看效果。

智见君的判断

这次升级最值得关注的不是画得多好看,而是图像生成正在从"创意工具"变成"生产力工具"

过去两年,图像模型基本都在比拼谁的画风更艺术、谁的脸更逼真。但对绝大多数真实的工作场景来说,人们要的不是一张很美的图,而是一张能直接用的图。海报上的字不能错、图表的数据不能乱、UI 元素要精确对齐、多语言要能看懂。

Images 2.0 解决的就是这些"不性感但必须"的问题。它让渡了一部分艺术家气质,换来了更可靠的工程属性。对于把 AI 当工作伙伴的人来说,这比再高一分的"审美分"有用得多。

顺带一提,Codex 用户这次多了一个画图能力。对那些做全栈、独立开发、内容创作的朋友,工作流可能要重新设计一下了。

 


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询