支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


OpenAI发布全新语音模型API,语音识别和合成能力大升级!

发布日期:2025-03-21 05:39:27 浏览次数: 1746 作者:宝玉AI
推荐语

OpenAI最新语音模型API,精准度和功能性全面升级,开启语音识别和合成新纪元。

核心内容:
1. 新音频模型API概览及性能对比
2. 价格明细及不同场景下的应用优势
3. 新增功能亮点:精准语音转文字、声音风格指令、Agents SDK音频支持

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家


OpenAI 今天又发布了一批新功能,这次是三个音频模型API,个人觉得挺实用。

OpenAI新一代音频模型性能比较

新音频模型一览

这次发布的API主要分为两类:

  1. 1. 语音识别模型(Speech-to-text):
  • • gpt-4o-transcribe(精准版)
  • • gpt-4o-mini-transcribe(轻量版)
  • 2. 文字转语音模型(Text-to-speech):
    • • gpt-4o-mini-tts(支持自定义声音风格)

    这些新模型相较之前的Whisper模型,准确率有明显提升,尤其是在有噪音、口音明显或语速变化快的环境下。

    下面这张图清晰地展示了最新语音识别模型与过去Whisper模型之间的对比:


从图中可以看到,新的gpt-4o-transcribe模型在多个语言的词错率(WER)方面表现都更加优秀(词错率越低越好)。

价格一览(每百万tokens)

官方也给出了新模型的定价明细,具体如下:

模型名称
文本输入价格
文本输出价格
音频输入价格
音频输出价格
gpt-4o-mini-tts
$0.60
-
-
$12.00
gpt-4o-transcribe
$2.50
$10.00
$6.00
-
gpt-4o-mini-transcribe
$1.25
$5.00
$3.00
-

从定价来看,mini版本明显更便宜,更适合日常小规模使用,而gpt-4o-transcribe则适合需要更高精准度的专业场景,比如客服中心、会议记录等。

有哪些新亮点?

1. 语音转文字更精准

新版gpt-4o-transcribe针对之前Whisper模型存在的“听错”、“漏听”等问题进行了优化,尤其擅长处理:

  • • 带口音的英语或其他语言
  • • 背景噪音较大的场景(如咖啡厅、户外)
  • • 讲话速度较快的内容

对那些日常使用语音识别经常感到“痛苦”的朋友来说,这个更新意义巨大,毕竟识别准确度直接影响使用体验。

2. TTS模型支持“声音风格指令”

传统的TTS(文字转语音)模型虽然可以合成自然的声音,但往往声音风格比较固定。而gpt-4o-mini-tts首次支持用户通过简单的指令来控制声音表现,比如:

  • • “像一个有同理心的客服人员说话”
  • • “用兴奋的语气讲述故事”
  • • “模仿播音员的语调朗读新闻”

这对开发创意内容、音频书籍、游戏配音,甚至是客户服务机器人,都是极大的提升。

3. 开发者的福音:Agents SDK支持音频

OpenAI还特意提到了,现在他们的Agents SDK已经可以直接支持音频了,也就是说,以后开发者可以更轻松地搭建一个能“听”和“说”的智能语音助手。

比如,你只需要简单调用API,就能实现智能客服、智能导游、甚至能聊天的虚拟伙伴。

亲测体验(附官方在线Demo)

如果你感兴趣,OpenAI专门做了一个小网站,可以直接在线体验TTS效果(无需写代码):

OpenAI.fm

我自己简单试了一下,声音的表现力和自然程度确实有明显提升,非常值得一试。

另外官方还举办了一个创意音频分享比赛,获奖者还能拿到一个Teenage Engineering OB-4收音机,有兴趣的朋友不妨试试看~

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询