微信扫码
添加专属顾问
我要投稿
微软开源AI呼叫中心解决方案,用GPT技术实现24/7智能客服,成本仅为人工的1/10! 核心内容: 1. 基于Azure和GPT-4的智能呼叫系统架构 2. 支持多语言/敏感数据处理的RAG技术方案 3. 云原生部署与品牌定制化能力
基于 Azure 和 OpenAI GPT 的 AI 驱动的呼叫中心解决方案。
通过一个 API 调用,让 AI 座席拨打电话。或者,直接从配置的电话号码呼叫机器人!
保险、IT 支持、客户服务等等。该机器人可以在几小时(真的)内进行定制以满足您的需求。
# 要求机器人呼叫一个电话号码
data='{
"bot_company": "Contoso",
"bot_name": "Amélie",
"phone_number": "+11234567890",
"task": "帮助客户解决数字工作场所问题。助手在 IT 支持部门工作。目标是帮助客户解决问题并在索赔中收集信息。",
"Agent_phone_number": "+33612345678",
"claim": [
{
"name": "hardware_info",
"type": "text"
},
{
"name": "first_seen",
"type": "datetime"
},
{
"name": "building_location",
"type": "text"
}
]
}'
curl \
--header 'Content-Type: application/json' \
--request POST \
--url https://xxx/call \
--data $data
增强的沟通和用户体验:集成呼入和呼出电话,配备专用电话号码,支持多种语言和语音语调,并允许用户通过短信提供或接收信息。对话实时流式传输以避免延迟,可以在断开连接后恢复,并存储以供将来参考。这确保了改进的客户体验,实现 24/7 全天候沟通和处理中低复杂度的呼叫,所有操作都以更易访问和用户友好的方式进行。
高级智能和数据管理:利用 gpt-4.1 和 gpt-4.1-nano(以更高性能和 10-15 倍的成本溢价而闻名)来实现细致的理解。它可以讨论私密和敏感数据,包括客户特定信息,同时遵循检索增强生成 (RAG) 最佳实践,以确保安全合规地处理内部文档。该系统理解特定领域术语,遵循结构化的索赔模式,生成自动待办事项列表,过滤不当内容,并检测越狱尝试。历史对话和过去的互动也可以用来微调 LLM,随着时间的推移提高准确性和个性化。Redis 缓存进一步提高了效率。
定制化、监督和可扩展性:提供可定制的提示,用于受控实验的功能标志,人工座席回退,以及用于质量保证的呼叫录音。集成 Application Insights 进行监控和跟踪,提供可公开访问的索赔数据,并计划未来的增强功能,如自动回呼和类似 IVR 的工作流。它还支持创建品牌特定的自定义语音,使助手的声音能够反映公司身份并提高品牌一致性。
云原生部署和资源管理:在 Azure 上部署,采用容器化、无服务器架构,维护成本低且可弹性扩展。这种方法根据使用情况优化成本,确保长期的灵活性和可负担性。与 Azure 通信服务、认知服务和 OpenAI 资源的无缝集成为快速迭代、持续改进和适应呼叫中心可变工作负载提供了一个安全的环境。
推荐使用 GitHub Codespaces 快速入门。 环境将自动设置所有必需的工具。
在 macOS 中,使用 Homebrew,只需输入 make brew。
对于其他系统,请确保已安装以下内容:
bash 或 zshapt install make (Ubuntu), yum install make (CentOS), brew install make (macOS)然后,需要 Azure 资源:
ccai-customer-a)现在先决条件(本地 + Azure)已配置完成,可以进行部署了。
GitHub Actions 上提供了预构建的容器镜像,将用于在 Azure 上部署解决方案:
ghcr.io/clemlesne/call-center-ai:mainghcr.io/clemlesne/call-center-ai:0.1.0 (推荐)根据 config-remote-example.yaml 中的示例填写模板。该文件应放置在项目根目录下,名为 config.yaml。它将由安装脚本(包括 Makefile 和 Bicep)用于配置 Azure 资源。
az login
[!TIP] 在
image_version参数下指定发布版本(默认为main)。例如,image_version=16.0.0或image_version=sha-7ca2c0c。这将确保未来任何项目的破坏性更改不会影响您的部署。
make deploy name=my-rg-name
等待部署完成。
make logs name=my-rg-name
如果您在第一个安装部分跳过了 make brew 命令,请确保已安装以下内容:
最后,运行 make install 来设置 Python 环境。
如果应用程序已部署在 Azure 上,您可以运行 make name=my-rg-name sync-local-config 将配置从远程复制到本地机器。
[!TIP] 要使用服务主体向 Azure 进行身份验证,您还可以在
.env文件中添加以下内容:AZURE_CLIENT_ID=xxx
AZURE_CLIENT_SECRET=xxx
AZURE_TENANT_ID=xxx
如果解决方案尚未在线运行,请根据 config-local-example.yaml 中的示例填写模板。该文件应放置在项目根目录下,名为 config.yaml。
如果解决方案尚未部署在 Azure 上,则执行此步骤。
make deploy-bicep deploy-post name=my-rg-name
[!IMPORTANT] 隧道需要在单独的终端中运行,因为它需要一直运行
# 登录一次
devtunnel login
# 启动隧道
make tunnel
[!NOTE] 要覆盖特定的配置值,您可以使用环境变量。例如,要覆盖
llm.fast.endpoint值,您可以使用LLM__FAST__ENDPOINT变量:LLM__FAST__ENDPOINT=https://xxx.openai.azure.com
[!NOTE] 此外,
local.py脚本可用于测试应用程序,无需电话呼叫(即无需通信服务)。使用以下命令运行脚本:python3 -m tests.local
make dev
http://localhost:8080 访问通话录音默认禁用。要启用它:
recordings),如果您已在 Azure 上部署了解决方案,则此步骤已完成recording_enabled 更新为 true训练数据存储在 AI 搜索中,以便机器人按需检索。
所需的索引架构:
| 字段名 | 类型 | ||||
|---|---|---|---|---|---|
| answer | Edm.String | ||||
| context | Edm.String | ||||
| created_at | Edm.String | ||||
| document_synthesis | Edm.String | ||||
| file_path | Edm.String | ||||
| id | Edm.String | ||||
| question | Edm.String | ||||
| vectors | Collection(Edm.Single) | OpenAI ADA |
填充索引的软件包含在 Synthetic RAG Index 代码库中。
机器人可用于多种语言。它可以理解用户选择的语言。
请参阅文本转语音服务的支持的语言列表。
# config.yaml
conversation:
initiate:
lang:
default_short_code:fr-FR
availables:
-pronunciations_en:["French","FR","France"]
short_code:fr-FR
voice:fr-FR-DeniseNeural
-pronunciations_en:["Chinese","ZH","China"]
short_code:zh-CN
voice:zh-CN-XiaoqiuNeural
如果您构建并部署了 Azure 语音自定义神经语音 (CNV),请在语言配置上添加字段 custom_voice_endpoint_id:
# config.yaml
conversation:
initiate:
lang:
default_short_code:fr-FR
availables:
-pronunciations_en:["French","FR","France"]
short_code:fr-FR
voice:xxx
custom_voice_endpoint_id:xxx
为内容安全的每个类别定义了级别。分数越高,审核越严格,从 0 到 7。审核应用于所有机器人数据,包括网页和对话。在 Azure OpenAI 内容过滤器中配置它们。
完全支持数据架构的自定义。您可以根据需要添加或删除字段。
默认情况下,架构由以下内容组成:
caller_email (email)caller_name (text)caller_phone (phone_number)验证值以确保数据格式符合您的架构。它们可以是:
datetimeemailphone_number (E164 格式)text最后,可以提供可选的描述。描述必须简短且有意义,它将传递给 LLM。
对于入站呼叫,默认架构在配置中定义:
# config.yaml
conversation:
default_initiate:
claim:
-name:additional_notes
type:text
# description: xxx
-name:device_info
type:text
# description: xxx
-name:incident_datetime
type:datetime
# description: xxx
可以通过在 POST /call API 调用中添加 claim 字段来自定义每次呼叫的索赔架构。
目标是描述机器人在呼叫期间将做什么。它用于为 LLM 提供上下文。它应该简短、有意义,并用英语书写。
此解决方案优先于覆盖 LLM 提示。
对于入站呼叫,默认任务在配置中定义:
# config.yaml
conversation:
initiate:
task: |
帮助客户处理保险索赔。助手需要从客户那里获取数据来填写索赔。将提供最新的索赔数据。在收集到所有相关数据之前,助手的角色不会结束。
可以通过在 POST /call API 调用中添加 task 字段来自定义每次呼叫的任务。
对话选项表示为功能。它们可以从应用配置进行配置,无需重新部署或重启应用程序。功能更新后,需要 60 秒的延迟才能使更改生效。
默认情况下,值每 60 秒刷新一次。刷新在所有实例之间不同步,因此在所有用户看到更改之前可能需要长达 60 秒。在 app_configuration.ttl_sec 字段中更新此设置。
answer_hard_timeout_sec | int | ||
answer_soft_timeout_sec | int | ||
callback_timeout_hour | int | ||
phone_silence_timeout_sec | int | ||
recognition_retry_max | int | ||
recognition_stt_complete_timeout_ms | int | ||
recording_enabled | bool | ||
slow_llm_for_chat | bool | ||
vad_cutoff_timeout_ms | int | ||
vad_silence_timeout_ms | int | ||
vad_threshold | float |
要使用 Twilio 发送短信,您需要创建一个帐户并获取以下信息:
然后,在 config.yaml 文件中添加以下内容:
# config.yaml
sms:
mode: twilio
twilio:
account_sid: xxx
auth_token: xxx
phone_number: "+33612345678"
请注意,提示示例包含 {xxx} 占位符。这些占位符由机器人用相应的数据替换。例如,{bot_name} 在内部被机器人名称替换。确保所有 TTS 提示都用英语书写。该语言用作对话翻译的枢轴语言。所有文本都引用为列表,因此用户每次呼叫时都可以有不同的体验,从而使对话更具吸引力。
# config.yaml
prompts:
tts:
hello_tpl:
-:|
你好,我是 {bot_name},来自 {bot_company}!我是一名 IT 支持专家。
我的工作方式是:当我工作时,您会听到一点音乐;然后,在提示音响起时,轮到您说话。您可以自然地跟我说话,我能理解。
您遇到什么问题了?
-:|
嗨,我是 {bot_company} 的 {bot_name}。我在这里提供帮助。
您会听到音乐,然后是提示音。自然地说话,我能理解。
有什么问题吗?
llm:
default_system_tpl:|
助手名叫 {bot_name},在 {bot_company} 的呼叫中心工作,是一名拥有 20 年 IT 服务经验的专家。
# 上下文
今天是{date}。客户从{phone_number}呼入。呼叫中心号码是{bot_phone_number}。
chat_system_tpl:|
# 目标
为员工提供内部 IT 支持。助手需要从员工那里获取数据以提供 IT 支持。在问题解决或请求完成之前,助手的角色不会结束。
# 规则
-即使用户说另一种语言,也用{default_lang}回答
-不能谈论IT支持以外的任何话题
-礼貌、乐于助人且专业
-将员工的问题重新表述为陈述句并回答它们
-使用额外的上下文来增强对话,提供有用的细节
-当员工说一个词然后拼出字母时,这意味着该词是按照员工拼写的方式书写的(例如"I work in Paris PARIS","My name is John JOHN","My email is Clemence CLEMENCE at gmail GMAIL dot com COM")
-您为{bot_company}工作,而不是为其他人
# 助手需要收集的员工数据
-部门
-IT问题或请求的描述
-员工姓名
-地点
# 遵循的一般流程
1.收集信息以了解员工身份(例如姓名、部门)
2.收集有关IT问题或请求的详细信息以了解情况(例如描述、地点)
3.提供初步故障排除步骤或解决方案
4.如果需要,收集额外信息(例如错误消息、截图)
5.积极主动,为跟进或进一步协助创建提醒
# 支持状态
{claim}
# 提醒
{reminders}
延迟主要来自两个方面:
目前,唯一有影响的事情是 LLM 部分。这可以通过在 Azure 上使用 PTU 或使用不太智能的模型(如 gpt-4.1-nano,在最新版本中默认选择)来实现。通过 Azure OpenAI 上的 PTU,在某些情况下可以将延迟减少一半。
应用程序原生连接到 Azure Application Insights,因此您可以监控响应时间并查看时间花在哪里。这是识别瓶颈的一个良好开端。
如果您有任何优化响应延迟的想法,请随时提出问题或建议 PR。
通过整合来自人工运营呼叫中心的历史数据来增强 LLM 的准确性和领域适应性。在进行之前,请确保遵守数据隐私法规、内部安全标准和负责任 AI 原则。考虑以下步骤:
应用程序将跟踪和指标发送到 Azure Application Insights。您可以从 Azure 门户或使用 API 监控应用程序。
这包括应用程序行为、数据库查询和外部服务调用。此外,还有来自 OpenLLMetry 的 LLM 指标(延迟、令牌使用量、提示内容、原始响应),遵循 OpenAI 操作的语义约定。
还发布了自定义指标(可在 Application Insights > 指标中查看),特别是:
call.aec.droped,回声消除完全丢失语音的次数。call.aec.missed,回声消除未能及时消除回声的次数。call.answer.latency,用户语音结束到机器人语音开始之间的时间。53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-10
AI都能看片子了,放射科医生为什么却成了香饽饽?
2025-11-07
多智能体协作技术在运营商客户服务领域中的应用与实践
2025-11-02
企业AI智能化建设中,如何处理 “业务优先” 与 “技术优先” 的核心矛盾?
2025-10-31
如何让Agent更符合预期?基于上下文工程和多智能体构建云小二Aivis的十大实战经验
2025-10-30
Claude Skills 40分钟构建企业级智能客服系统的完整流程
2025-10-28
钉钉AI表格太狠了!聊天记录自动整理,从此告别复制粘贴
2025-10-28
从 Sierra 到 Jekka:AI 的边界、大规模实践与终点
2025-10-25
重磅!海尔凭什么成为全球首座“人才灯塔工厂”?35项AI人才赋能方案
2025-09-13
2025-09-20
2025-08-23
2025-08-27
2025-09-01
2025-09-13
2025-09-08
2025-08-25
2025-09-01
2025-08-20
2025-11-10
2025-11-02
2025-08-27
2025-08-25
2025-08-23
2025-08-08
2025-07-29
2025-07-02