支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


五年磨一剑:Agent 时代追风不如造风

发布日期:2025-07-30 19:36:59 浏览次数: 1559
作者:阿里云云原生

微信搜一搜,关注“阿里云云原生”

推荐语

Agent Infra技术迎来爆发拐点,各大云厂商竞相推出新一代架构,为AI Agent提供更强大的"躯干"支撑。

核心内容:
1. 2025年Agent Infra技术爆发背景与市场预测
2. 四大云厂商最新Agent Infra架构技术解析
3. Agent开发范式演进对基础设施的新要求

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家


“我有一剑,可破万剑”——2025年,Agent Infra 领域迎来“破局之剑”。


引子




Cloud Native


2025 年,AI Agentic 基础设施(Agent Infra)迎来爆发拐点。DeepSeek、Qwen 等开源大模型的突破为 Agent 提供了强大的认知“大脑”,而模型上下文协议(MCP)的生态繁荣则赋予其灵活“四肢”——据 IDC 预测,全球 80% 企业将在年内部署 Agent。“大脑”与“四肢”的协同进化,正在倒逼承载二者的“躯干”全面升级:Agent Infra 成为技术攻坚的核心战场


云厂商竞相推出新一代 Agent Infra 技术架构:


  • AWS 推出 AgentCore(预览版),官方明确其是基于 Lambda FaaS 基础设施深度定制和优化的全托管运行时,为 Bedrock Agents 解决了标准 Lambda 的关键限制,如长时执行、状态记录、会话隔离等。

  • Azure 推出 AI Foundry Agent Service,官方明确其集成 Functions FaaS 事件驱动使得 Agent Service 能够利用 Serverless 计算的事件驱动、可扩展性和灵活性,更轻松地构建和部署 Agent。

  • Google Cloud 推出 Vertex AI Agent Builder,官方虽未明确但普遍推断其高度依赖并优化了 Cloud Run(Cloud Functions 2nd Gen 已经基于 Cloud Run 来构建)来支撑长时运行、并发和有状态的需求。

  • 阿里云推出函数计算 Function AI,官方明确基于 FC FaaS 的 Serverless x AI 运行时深度优化,推出模型服务、工具服务、Agent 服务,开发者可自主选择模型、运行时、工具的一个或多个以组装式设计构建和部署 Agent。


这些技术共同指向同一目标 —— 为 Agent 提供更高弹性、更低延迟、更强安全、更长会话的“躯干”,支撑其从实验室迈向千万级企业场景。当认知与行动完成闭环,Agent Infra 的技术代差将决定企业 AI 创新/转型的落地速度与质量。



Agent Infra 乘风而来

Cloud Native


共性需求


Agent 开发范式的演进对底层基础设施(Agent Infra)提出了全新要求。各大云厂商(AWS,Azure,Google Cloud,阿里云)的新一代 Agent Infra 聚焦长时运行、会话亲和、会话隔离、企业级 IAM 和 VPC 及模型/框架开放等技术突破,本质上是为满足三类核心 Agent 形态的共性需求:


  • LLM Agent 连续调用工具的强诉求:

LLM Agent 需连续调用工具链完成复杂推理,可能跨越数分钟甚至数小时。传统 Serverless 的执行时长限制(如 AWS Lambda 的 15 分钟上限)会强制中断任务,因此新一代 Agent Infra 必须突破该限制,支持长时运行。同时,为维持多轮对话的上下文一致性,需会话亲和确保同一请求路由到同一计算实例,避免状态丢失。


  • Workflow Agent 对状态管理的依赖:
自动化工作流(如数据处理 Pipeline)需持久化记录执行状态。传统 Serverless 的无状态特性无法保存中间结果,而新一代 Agent Infra 通过提供有状态会话保障工作流的原子性和可恢复性。会话隔离则确保多租户或高并发场景下任务互不干扰,满足企业级安全合规要求。

  • Custom Agent 的灵活性与生态整合:

Custom Agent 需集成异构工具(API、领域模型、数据库、Code Interpreter、Browser Use 等),要求新一代 Agent Infra 支持模型/框架开放(如 AutoGen、LangChain、AgentScope)。封闭式架构会限制 Agent 能力扩展,而云厂商通过解耦计算层与框架层,可提供插件化集成接口。


技术路径


新一代 Agent Infra 在保留 Serverless 核心优势(全托管免运维、轻量弹性更经济)的同时,通过关键功能(长时运行、会话亲和/会话隔离)和技术突破(状态持久化、冷启动优化、开放集成),解决了 LLM Agent 的持续推理、Workflow Agent 的复杂状态流转、Custom Agent 的灵活定制等核心需求。这标志着 Agent 开发正从“手动拼凑传统组件”转向“利用原生 Infra 实现高效、安全、可扩展的开发部署”这一全新的技术路径。


架构原则


在 Agent 技术架构加速进化之际,函数计算“五年磨一剑”将理论瓶颈转化为经过大规模实践验证的企业级解决方案。我们早已洞见:未来的 Serverless 架构必须遵循三大基本原则 —— 开源开放、组装式设计、灵活定制。这不是技术空想,而是业务驱动、市场淘沙的生存法则。


开源开放是赋予客户自由进化的选择权。以模型服务演进为例:PoC 阶段借力商业模型快速验证;规模扩张时采用混合架构,核心业务拥抱开源模型自主可控,边缘场景沿用商业服务降本增效;至业务成熟期,则通过微调/训练后的自有模型实现深度创新。这种阶梯式的进化路径,让企业始终掌握技术选择权


组装式设计的本质是拒绝重复造轮子。想象一个视频转码工作流:它需无缝串联函数计算、消息队列、日志服务、对象存储等十余种云产品。真正的价值在于 ——


  • 原子能力自由拼装:像搭乐高般调用高弹性、高可靠的云原生组件;
  • 生态级互联:跨产品 IAM 鉴权与 VPC 网络互通实现安全隔离;
  • 韧性设计内化:工作流自带容错、回放、自愈能力,故障不再是停机噩梦。


灵活定制需破解更深层命题:解耦资源层与服务层。资源层持续锤炼冷启动、弹性伸缩等原子能力,成为“沉默的基石”;服务层则专注场景创新,将客户需求转化为技术驱动力。当 LLM Agent 多轮会话需求暴涨时,资源层需要快速优化长时任务和状态记录的调度算法;当 Workflow Agent 的某些工作流节点需要毫秒级响应时,服务层需要灵活调配资源如毫秒级快照+弹性策略实现冷启动加速 —— 市场价值才是技术边界的唯一标尺,打破技术边界应为用户带来价值



如今,函数计算正以这种「双螺旋结构」推动架构进化:向下吸纳硬件红利构筑高效资源池,向上生长出企业级 Agent 创新场景。当行业仍在持续探索 Agent Infra 技术架构新形态时,我们选择以落地实践为锚点


从Cloud Native 到 AI Native

Cloud Native


五年技术路,函数计算重塑 Serverless 版图


2020 年


函数计算业内首推 OCI 标准镜像 —— 打破 FaaS 和容器的技术边界


作为业内首个支持 OCI(Open Container Initiative)标准镜像的 Serverless 平台,函数计算彻底解决了环境依赖的碎片化问题。传统 Serverless 受限于运行时语言版本和依赖库的固化配置,而 OCI 镜像将应用与其完整运行环境打包交付,实现开发、测试、生产环境的绝对一致。这一创新直接推动 Serverless 进入企业核心生产场景,为后续 GPU 等异构计算的支持奠定基础。


2021 年


函数计算业内首推 Serverless GPU —— Serverless x AI 全新开发范式


面对 AI 负载对算力的严苛需求,函数计算首创 Serverless GPU 异构实例,突破三大技术壁垒:


  • 精益使用稀缺资源:按请求实时分配 GPU 算力且支持切分使用,避免传统虚机/容器驻留导致的资源浪费;
  • 冷启动加速降时延:镜像加速和模型加速,秒级/毫秒级快照优化冷启动,拓宽实时/准实时推理场景;
  • 技术升级释放红利:1 秒计费粒度,弹性实例满足中小客户经济使用,常驻实例满足企业客户固定预算;


这一创新直接推动 Serverless 技术在图像识别、实时推理等场景的应用,拉开 Serverless x AI 的工业化序幕。

2022 年


函数计算业内首推 24 小时长时任务 —— 打破执行时长枷锁


传统 Serverless 受限于短时任务模型(如 AWS Lambda 的 15 分钟上限),难以承载视频处理、数据分析、科学计算等长时负载。函数计算率先支持 24 小时超长任务,关键技术突破包括:


  • 状态持久化:内置队列实现 FIFO,由平台自动化异步消费执行,并记录任务状态;
  • 弹性强隔离:基于轻量级虚拟机池化技术,弹性供给算力,数据隔离/性能隔离;
  • 自动高可用:事件驱动任务执行,自动重试,无冗余资源浪费,成功/失败自动处理。


这一创新大大拓宽了 Serverless 在音视频处理、文件处理、批处理与流式计算等领域的适用场景。


2023-2025 年


函数计算 FunctionAI Agent 原生底座 —— 从资源供给到智能服务的生产级跨越


2023 至 2025 年,函数计算以“场景驱动技术创新、开放推进价值突破”为核心理念,推出 FunctionAI 服务,在 Serverless x AI 运行时基础上构建了三位一体的生产级能力和最佳实践:


  • 模型服务:支持开发者灵活高效地自建模型(如魔搭社区、HuggingFace 数万模型的本地化部署)或云上托管微调模型(上传镜像/模型文件即完成部署),突破商业模型厂商绑定的限制,实现“框架无关、模型自主”的技术选择权;

  • 工具服务:通过 MCP Server 一键托管(如高德地图导航工具、CloudOps、PolarDB、RDS、DataWorks 等数十款阿里云官方 MCP 工具),集成 50+ 开箱即用的插件工具,支持 VPC 打通企业私有生态,且可作为解决方案一键输出为企业专属 MCP MarketPlace,满足金融、政务等高合规场景的定制需求;

  • Agent 服务:基于函数计算的沙箱运行时与会话亲和/会话隔离等功能,实现 Agent Runtime/Sandbox Runtime 的弹性伸缩与安全隔离,同时开放组装式原子功能,允许将 FunctionAI 能力无缝嵌入企业自研平台。另外,FunctionAI 官方提供的 AgentFlow 服务,提供类 dify 的可视化工作流开发体验,采用自研引擎,10 倍提升 Agent 运行效率,对比 Dify 社区版,AgentFlow 可以灵活定制工作流节点,零成本打通云上生态。


展望




Cloud Native


函数计算 Agent Infra 的差异化在于“原子化组装”、“开放生态”与“选择权”:


  • 不同于业界其他产品,函数计算拒绝与商业模型锁定,开发者可自由组合使用任意开源模型(如 Llama3、DeepSeek、ComfyUI、Stable Diffusion)与云上工具;
  • 通过 Serverless 资源池化与 VPC 深度集成,企业可在享受 SaaS 级敏捷体验(5 分钟自建模型、10 分钟构建 Agent)的同时,保障核心业务的自建掌控力 —— 这正是上文中“混合架构”演进路径的终极形态,兼顾了 SaaS 的易用性与自建的稳定性、成本可控性和定制灵活性。


当业界聚焦一体化解决方案(封闭生态或有限制的开源开放)时,函数计算选择成为“AI 乐高”的底座 —— 开发者不必在“快速验证”与“深度定制”间妥协,而是以开放架构实现“从实验室到生产可用”的无缝跨越,让 Agent 真正成为企业数字生产力的通用组件。


Serverless 是当前技术领域最有可能演进为 AI Native Infra 的技术架构,函数计算正着力于打造模块化的 Agent Infra 之剑,助力开发者从“生态应用者”进阶为“能力定义者”,最终推动 AI 技术走向开放共享的创新之路。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询