微信扫码
添加专属顾问
我要投稿
阿里开源两大端侧AI模型,实现跨语种音色克隆与说唱识别,为开发者带来高效本地化解决方案。 核心内容: 1. Fun-CosyVoice3 0.5B TTS模型:支持9种语言18种方言的零样本语音克隆,延迟低至150毫秒 2. Fun-ASR-Nano 0.8B ASR模型:优化远场高噪声识别,支持31种语言和7种中文方言 3. 两大模型协同实现本地"听+说"闭环,特别强化音乐背景下的语音识别能力
2025年眼看就要接近尾声了,AI 圈的风向也正在悄悄发生变化。
大家不再一味追求千亿参数的「巨无霸」模型,而是开始卷端侧模型。
阿里 FunAudioLLM 团队显然深谙此道。这次他们发布的 Fun-CosyVoice3 0.5B 和 Fun-ASR-Nano 0.8B,简直就是为本地党和开发者量身定制的年终大礼。
TTS、ASR 双线程开源,而且它们不是“实验模型”,而是能直接落地用的工程级版本。
先说结论,这两个模型不是各玩各的,而是明显冲着一个目标去的:
在本地,把“听 + 说”这件事真正跑顺。
先说 TTS,这一版 CosyVoice 的关键词只有一个:
“输入即发声”
CosyVoice3 的升级将延迟直接砍半,是真正的“输入即发声”。
具备表现如下:
大白话就是:AI 说话更快、更稳,也更不容易读错。
而且支持双向流式合成:文本一边进,声音一边出,不用等整段文本生成完成。
更狠的是支持跨语种音色复刻。
也就是说:用一段普通话录音,就能生成粤语/日语/英语等语言的同一音色。
如果说 TTS 决定「像不像人」,那 ASR 决定的是:你到底能不能听懂人。
Fun-ASR-Nano 是一款基于数千万小时真实语音数据训练的端到端语音识别大模型。它支持低延迟实时转写,并涵盖 31 种语言识别功能。
虽然是 Fun-ASR 的轻量化版本,但这次更新明显不是“阉割版”。
这些升级点,不得不说是非常懂中国真实语音环境的。
把 Fun-ASR-Nano、Fun-CosyVoice3 放在一起,其实能看出阿里的野心:
不是做 Demo,而是做“语音底座”。
你可以很自然地搭出:本地语音助手、隐私优先的会议系统、实时翻译 + 语音播报、多语言语音 Agent ...
而且全部可私有化部署。
把拟人化语音交互的门槛降到了地板上。无论你是想给自己做一个语音工具,还是想为公司产品增加语音能力,这套开源方案都是目前性价比最高、功能最全的选择之一。
特别是那个零样本跨语种克隆和说唱识别,真的建议大家部署下来玩一玩,绝对会让你惊掉下巴。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-01-31
安利一个Moltbot Skills技能库,GitHub上线一天狂揽2.7k+Star
2026-01-30
打造Jarvis,OpenClaw很野,但Agent Studio简直变态
2026-01-30
Clawdbot再次更名:新名OpenClaw,官宣支持Kimi K2.5和小米MiMo
2026-01-30
阿里开源Qwen3-TTS:97毫秒超低延迟,让AI声音说出个性
2026-01-30
重磅开源!Kimi K2.5 本地部署全攻略:手把手教你跑通 1T MoE 巨兽
2026-01-30
深度解析:Moltbot 底层架构
2026-01-30
闭眼冲!Vue 生态 Skills 全家桶!@Anthony Fu 力作!
2026-01-30
一键部署,保姆级教程:华为云上线Moltbot(原Clawdbot)
2025-11-19
2026-01-27
2025-12-22
2025-12-10
2025-11-17
2025-11-07
2026-01-12
2025-12-23
2026-01-06
2025-11-06
2026-01-28
2026-01-26
2026-01-21
2026-01-21
2026-01-20
2026-01-16
2026-01-02
2025-12-24