微信扫码
添加专属顾问
我要投稿
1小时前,runway悄悄发布了一个新的AI视频模型。Gen-3 Alpha:用于视频生成的新基础模型
近期AI视频大模型神仙打架,前有国产可灵,后有Luma,现在runway发布gen-3 Alpha测试版本,加速搅局市场,仿佛在跟Sora喊话:你还来吗?
虽然还不能体验,看完效果后,一个字,赞!仿佛告诉我,我可以在AI视频领域大展拳脚。
Gen-3 Alpha核心特点
Gen-3 Alpha与 Gen-2 相比,它在保真度、一致性和运动方面有了重大改进。时间上突破至10秒。
这是一段城市高速行驶的火车窗户上,映出一位女性的微妙倒影的视频。
无论是角色的表情,还是他们的细微神态,都栩栩如生,仿佛是真人在眼前。镜头中,火车在铁轨上飞驰而过,车窗外光影交错,恍如一个快速转动的万花筒,瞬息万变。
整个场景极具动感,给人一种身临其境之感,仿佛是在观看一段真实拍摄的短视频,而非虚构的影像作品。
没有对比就没有伤害,看看同样的prompt,Gen-2的效果吧。
在捕捉和模拟不同的艺术风格或视觉效果,同样出色,用户能够更轻松、更精确地将特定风格应用到生成的图像或视频中。
这是一段日本女子站在船上,回望镜头的画面的场景,我觉得80%还原日本动漫的风格了
对于文生视频而言,模型能够更好地理解和生成运动信息,如物体的移动轨迹、镜头的移动等,这一点非常重要,用户可以更细致地控制视频中的动态元素,创作出更流畅、更具动感的视频作品。
这段视频的prmopt:手持跟踪镜头,跟随废弃街道上漂浮在地面上的红色气球
视频中无论是光影效果,还是流畅的运镜,创造出一种流畅、动感十足的视觉效果,又一个YYDS。
再看一个示例,场景元素能精准控制到这种程度,是否以后相机都不需要了。
检验一个AI视频大模型行不行,仅仅生成逼真的人物形象还远远不够,你得驾驭多样化的风格,写实风格到卡通风格,从复古风格到未来主义风格。
正如前几天我让某AI模型生成一段悟空打斗的场景,生成了效果无法直视。
Gen-3似乎做到了。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-18
GLM-OCR技术细节全公开
2026-03-18
Midjourney V8 正式上线:高清模式、文字无错、生成速度提升5倍
2026-03-15
我复刻了 Claude 刚发布的生成式 UI 交互!
2026-03-12
Gemini Embedding 2把多模态信息整合同一向量空间了,还需要多向量列吗?
2026-03-11
Gemini Embedding 2:首个原生五模态 embedding 模型
2026-03-11
Google 发布首个全模态 Embedding 2 模型,文本图片音视频 PDF 统一到一个向量空间
2026-03-11
谷歌首个原生多模态向量模型发布:Agent 可以用文字搜图片、用图片搜视频了...
2026-03-05
零帧起手 Codex × Figma 双向工作流实操
2026-01-10
2026-01-05
2026-02-12
2026-01-16
2026-01-27
2026-02-12
2025-12-31
2026-01-22
2026-02-27
2026-03-11
2026-03-12
2025-12-31
2025-08-04
2025-05-26
2025-05-13
2025-04-08
2025-04-05
2025-03-30