微信扫码
添加专属顾问
我要投稿
SEED-Story由MLLM驱动,能够从用户提供的图片和文本作为故事的开始,生成多模态长篇故事,模型、代码与数据都已开源。生成的故事包括丰富且连贯的叙事文本,以及在角色和风格上保持一致的图片。故事可以跨越多达25个多模态序列,尽管在训练期间仅使用最多10个序列。
左侧:在多模态故事生成中预测下一个词时的注意力图可视化。我们观察到重要的注意力集中在整个序列的第一个词("0"词),标点符号词,与BoI(图像开头)相邻的词和与EoI(图像结尾)相邻的词上。右侧:(a) 密集型注意力图,它保留了KV缓存中的所有词。(b) 窗口型注意力,通过滑动窗口逐出前面的词。(c) 注意力汇聚,它基于窗口型注意力保留了开头的词。(d) 多模态注意力汇聚,它基于窗口型注意力保留了文本词的开头、图像词以及图像词的结尾。这可以有效地使我们的模型泛化到生成比训练序列长度更长的序列。
来自SEED-Story的多模态故事生成示例。它展示了从同一初始图像生成的两个叙事分支。顶部分支以引用“戴黄帽子的男人”的文本开始,导致包含该角色的图像生成。底部分支开始时没有提及男人,结果导致故事在排除他的情况下与第一个分支发生分歧。
https://github.com/TencentARC/SEED-StorySEED-Story: Multimodal Long Story Generation with Large Language Modelhttps://arxiv.org/pdf/2407.08683
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-11
Qwen3-Omni新升级:声形意合,令出智随!
2025-12-11
首发实测智谱 GLM-TTS:3秒克隆我的声音,连「哎等等这bug怎么回事」都学会了
2025-12-11
硅基流动上线智谱视觉模型 GLM-4.6V
2025-12-11
GLM-TTS技术报告:基于多奖励强化学习的可控发音语音合成
2025-12-11
Qwen3-TTS全面升级:声情并茂,语通八方
2025-12-09
Ming-Flash-Omni 音视图文全模态技术报告解读 —— 一为全,全为一
2025-12-07
阿里 Qwen3-TTS 全新上线!支持9种方言+49种音色,连天津味儿都拿捏了!
2025-12-06
微软又上大分!刚刚开源一款 0.5B 轻量级实时 TTS 模型,还能边想边说!
2025-09-19
2025-11-10
2025-10-22
2025-10-31
2025-09-25
2025-12-06
2025-09-17
2025-11-03
2025-12-07
2025-11-19
2025-08-04
2025-05-26
2025-05-13
2025-04-08
2025-04-05
2025-03-30
2025-03-26
2025-03-05