微信扫码
添加专属顾问
我要投稿
SOFA AI 网关如何应对AI业务场景的挑战?了解其专业化设计与核心能力。核心内容: 1. AI场景下网关面临的挑战与转型需求 2. SOFA AI网关的三大核心业务场景定位 3. 基于Higress的技术选型与落地实践优势
背景
Cloud Native
网关作为重要的中间件,在传统业务中扮演着流量治理、路由转发、协议转换、安全防护等功能。根据不同业务场景的定位,也会衍生出不同类型的网关,例如流量网关、ESB(企业服务总线)、API 网关、云原生网关。从网关职责看,其本质所承担的职责没有太多变化,主要是针对不同业务场景下作更多的适配,更好地满足业务使用。比如,API 网关则是针对微服务场景,将原有的管理粒度从粗粒度的流量或服务,转换成了细粒度的 REST 或接口维度的管理,从而实现了更精细化的治理,这是从流量网关演变为 API 网关的核心驱动力。
在 AI 场景下,业务模式发生了根本性的变革,网关所面对的挑战也从“服务”转向了“模型”和“智能体”等。这种转变并非简单的技术迭代,同时带来业务逻辑、交互模式、资源消耗和风险模型的全面重塑。
为了有效支撑日益复杂多样的 AI 业务场景(如服务模型、智能体、AI 应用及 MCP 等),API 网关的角色亟需从通用型升级为专业化的 AI 网关。原有通用网关的核心能力已无法满足这些场景的特定需求,因此 AI 网关针对性地拓展和强化了能力集,衍生出智能路由、模型统一接入、语义缓存、内容安全、MCP 代理、模型限流等核心特性。
SOFA AI 网关定位
Cloud Native
SOFA AI 网关(又名 SOFA Higress)基于开源 Higress 内核构建,专为 SOFA 深度优化、能力增强,是面向 AI 需求的智能网关解决方案。
SOFA AI 网关在构建之初即明确了其定位:为三类核心 AI 业务场景提供专业化服务:
下面将从以上三部分内容详细展开。
落地实践
Cloud Native
SOFA AI 网关使用 Higress 作为内核,主要考虑其强大的开源社区,丰富的扩展机制等,同时和网关未来多网关融合目标一致,因此我们基于 Higress 网关构建,并将原有 API 网关、数据网关、互通网关等能力迁移。
当前智能体无疑是最热的话题,很多企业开始构建自己的垂直业务智能体。为了帮助企业更好、更快地构建自己的智能体,我们将网关明确定位为智能体流量的统一出入口网关。
SOFA AI 网关为智能体提供关键能力:
SOFA AI 网关在智能体出口流量侧,主要提供了以下几个关键功能:
网关在代理模型服务时与传统服务代理存在显著差异。这种差异的根源在于模型服务自身独特的流量特性,主要包括:
正是基于模型流量的上述核心特点,传统网关常用的负载均衡策略(如简单的轮询、最少连接数、随机)在模型服务代理场景下往往效果不佳,甚至适得其反。例如,轮询可能将新请求分配给已满载并处于排队状态的实例,从而进一步加剧延迟。因此,模型服务网关需要提供更智能的路由策略,能够根据模型实例的实时负载、KV Cache 状态、队列情况等指标进行动态决策。
SOFA AI 网关作为模型的统一入口,负责实现模型的多集群路由与代理功能,并提供模型注册、下线的生命周期管理以及智能路由能力。
SOFA AI 网关的智能路由逻辑与开源 Higress 以及业内推理网关的实现方式有所不同,但融合了两者的优势。Higress 的智能路由能力完全在插件中实现,即所有路由逻辑均通过插件方式开发和集成,包括基于 metrics 指标的路由。这种设计在性能上表现较佳。而当前业内的推理网关普遍基于 Gateway API Inference Extension 规范实现,通过独立部署的 EPP 服务进行路由选择。
SOFA AI 网关出于提升交付效率的考虑,既未选择直接修改 Higress 数据面源码集成 Gateway API Inference Extension 能力,也没让业务侧直接在插件里写路由插件。相反,我们通过开发 Higress 插件,通过支持 ext-proc 协议对接业务侧的 EPP 服务或使用 http 协议对接传统服务,方便自定义路由扩展。
当然,未来为更好地与行业标准对齐,我们也计划在数据面进行修改,以集成原生的 Gateway API Inference Extension 能力。
在智能体项目的实践中,我们认识到高质量的工具(特别是专业化的 MCP)和权威数据是智能体能力的关键。通用大模型在金融等专业领域落地存在显著局限:知识可能过时、缺乏深度行业理解、难以保证回答的准确性与合规性。
专业工具(MCP)的作用在于:
MCP 市场地址:https://mcp.sofa.antdigital.com/mcp/home
未来展望
Cloud Native
在建设过程中,我们也遇到了一些新的挑战,主要包括实体识别准确度不足和 MCP 上下文超限等问题。
实体提取不清晰:用户通过自然语言查询或操作 MCP 服务时,涉及的关键输入(如基金、股票名称或代码)高度依赖精准的实体识别。然而,当用户使用别名、行业非标准称谓(俗称“黑话”)或不完整名称时,模型提取的结果可能无法准确对应到真实的金融实体(如基金名称或证券代码)。这直接影响后续处理的准确性和用户体验。因此,我们亟需引入“提槽”工程能力,通过对识别结果进行精细化校验和映射,以提升用户交互体验和信息召回率。
MCP 上下文爆炸:目前平台已上架的专业 MCP 达到 15 个,且未来数量将持续增加。接入过多的 MCP 会显著膨胀单个请求的处理上下文(Context),对模型的性能和资源消耗造成压力。针对此问题,构建一套智能化的 MCP 路由机制变得尤为重要,以便根据用户请求精准筛选所需的服务模块,避免不必要的上下文加载。
构建提槽能力和 MCP 智能路由能力,也将是 SOFA AI 网关在下半年重点发力的方向。
最后,感谢 Higress 开源团队,因为有 Higress 这么好的产品,SOFA AI 网关才能得以快速孵化。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-29
大模型的Funcation Calling是什么?
2025-10-29
Claude发布新功能Agent Skills,让你的Agent更专业
2025-10-29
星环科技AI Infra平台:重构企业AI基础设施
2025-10-29
Claude Skills 可能比 MCP更重要!
2025-10-29
初创公司的增长之道:如何让AI主动推荐你的产品?(上)
2025-10-29
VS Code Copilot Plan Agent:让 AI 编程更系统化的任务规划工具
2025-10-29
大模型音频水印技术:用AI守护音频数据的“身份指纹”
2025-10-29
梭哈1.4万亿,Open AI公布超级智能路线图
2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-09-08
2025-10-02
2025-09-17
2025-08-19
2025-09-29
2025-08-20
2025-10-29
2025-10-29
2025-10-28
2025-10-28
2025-10-27
2025-10-26
2025-10-25
2025-10-23