微信扫码
添加专属顾问
我要投稿
Agent Infra技术迎来爆发拐点,各大云厂商竞相推出新一代架构,为AI Agent提供更强大的"躯干"支撑。 核心内容: 1. 2025年Agent Infra技术爆发背景与市场预测 2. 四大云厂商最新Agent Infra架构技术解析 3. Agent开发范式演进对基础设施的新要求
“我有一剑,可破万剑”——2025年,Agent Infra 领域迎来“破局之剑”。
引子
Cloud Native
2025 年,AI Agentic 基础设施(Agent Infra)迎来爆发拐点。DeepSeek、Qwen 等开源大模型的突破为 Agent 提供了强大的认知“大脑”,而模型上下文协议(MCP)的生态繁荣则赋予其灵活“四肢”——据 IDC 预测,全球 80% 企业将在年内部署 Agent。“大脑”与“四肢”的协同进化,正在倒逼承载二者的“躯干”全面升级:Agent Infra 成为技术攻坚的核心战场。
云厂商竞相推出新一代 Agent Infra 技术架构:
这些技术共同指向同一目标 —— 为 Agent 提供更高弹性、更低延迟、更强安全、更长会话的“躯干”,支撑其从实验室迈向千万级企业场景。当认知与行动完成闭环,Agent Infra 的技术代差将决定企业 AI 创新/转型的落地速度与质量。
Agent Infra 乘风而来
Cloud Native
共性需求
Agent 开发范式的演进对底层基础设施(Agent Infra)提出了全新要求。各大云厂商(AWS,Azure,Google Cloud,阿里云)的新一代 Agent Infra 聚焦长时运行、会话亲和、会话隔离、企业级 IAM 和 VPC 及模型/框架开放等技术突破,本质上是为满足三类核心 Agent 形态的共性需求:
LLM Agent 需连续调用工具链完成复杂推理,可能跨越数分钟甚至数小时。传统 Serverless 的执行时长限制(如 AWS Lambda 的 15 分钟上限)会强制中断任务,因此新一代 Agent Infra 必须突破该限制,支持长时运行。同时,为维持多轮对话的上下文一致性,需会话亲和确保同一请求路由到同一计算实例,避免状态丢失。
Custom Agent 需集成异构工具(API、领域模型、数据库、Code Interpreter、Browser Use 等),要求新一代 Agent Infra 支持模型/框架开放(如 AutoGen、LangChain、AgentScope)。封闭式架构会限制 Agent 能力扩展,而云厂商通过解耦计算层与框架层,可提供插件化集成接口。
技术路径
新一代 Agent Infra 在保留 Serverless 核心优势(全托管免运维、轻量弹性更经济)的同时,通过关键功能(长时运行、会话亲和/会话隔离)和技术突破(状态持久化、冷启动优化、开放集成),解决了 LLM Agent 的持续推理、Workflow Agent 的复杂状态流转、Custom Agent 的灵活定制等核心需求。这标志着 Agent 开发正从“手动拼凑传统组件”转向“利用原生 Infra 实现高效、安全、可扩展的开发部署”这一全新的技术路径。
架构原则
在 Agent 技术架构加速进化之际,函数计算“五年磨一剑”将理论瓶颈转化为经过大规模实践验证的企业级解决方案。我们早已洞见:未来的 Serverless 架构必须遵循三大基本原则 —— 开源开放、组装式设计、灵活定制。这不是技术空想,而是业务驱动、市场淘沙的生存法则。
开源开放是赋予客户自由进化的选择权。以模型服务演进为例:PoC 阶段借力商业模型快速验证;规模扩张时采用混合架构,核心业务拥抱开源模型自主可控,边缘场景沿用商业服务降本增效;至业务成熟期,则通过微调/训练后的自有模型实现深度创新。这种阶梯式的进化路径,让企业始终掌握技术选择权。
组装式设计的本质是拒绝重复造轮子。想象一个视频转码工作流:它需无缝串联函数计算、消息队列、日志服务、对象存储等十余种云产品。真正的价值在于 ——
而灵活定制需破解更深层命题:解耦资源层与服务层。资源层持续锤炼冷启动、弹性伸缩等原子能力,成为“沉默的基石”;服务层则专注场景创新,将客户需求转化为技术驱动力。当 LLM Agent 多轮会话需求暴涨时,资源层需要快速优化长时任务和状态记录的调度算法;当 Workflow Agent 的某些工作流节点需要毫秒级响应时,服务层需要灵活调配资源如毫秒级快照+弹性策略实现冷启动加速 —— 市场价值才是技术边界的唯一标尺,打破技术边界应为用户带来价值。
如今,函数计算正以这种「双螺旋结构」推动架构进化:向下吸纳硬件红利构筑高效资源池,向上生长出企业级 Agent 创新场景。当行业仍在持续探索 Agent Infra 技术架构新形态时,我们选择以落地实践为锚点。
从Cloud Native 到 AI Native
Cloud Native
五年技术路,函数计算重塑 Serverless 版图
函数计算业内首推 OCI 标准镜像 —— 打破 FaaS 和容器的技术边界
作为业内首个支持 OCI(Open Container Initiative)标准镜像的 Serverless 平台,函数计算彻底解决了环境依赖的碎片化问题。传统 Serverless 受限于运行时语言版本和依赖库的固化配置,而 OCI 镜像将应用与其完整运行环境打包交付,实现开发、测试、生产环境的绝对一致。这一创新直接推动 Serverless 进入企业核心生产场景,为后续 GPU 等异构计算的支持奠定基础。
函数计算业内首推 Serverless GPU —— Serverless x AI 全新开发范式
面对 AI 负载对算力的严苛需求,函数计算首创 Serverless GPU 异构实例,突破三大技术壁垒:
这一创新直接推动 Serverless 技术在图像识别、实时推理等场景的应用,拉开 Serverless x AI 的工业化序幕。
函数计算业内首推 24 小时长时任务 —— 打破执行时长枷锁
传统 Serverless 受限于短时任务模型(如 AWS Lambda 的 15 分钟上限),难以承载视频处理、数据分析、科学计算等长时负载。函数计算率先支持 24 小时超长任务,关键技术突破包括:
这一创新大大拓宽了 Serverless 在音视频处理、文件处理、批处理与流式计算等领域的适用场景。
函数计算 FunctionAI Agent 原生底座 —— 从资源供给到智能服务的生产级跨越
2023 至 2025 年,函数计算以“场景驱动技术创新、开放推进价值突破”为核心理念,推出 FunctionAI 服务,在 Serverless x AI 运行时基础上构建了三位一体的生产级能力和最佳实践:
展望
Cloud Native
函数计算 Agent Infra 的差异化在于“原子化组装”、“开放生态”与“选择权”:
当业界聚焦一体化解决方案(封闭生态或有限制的开源开放)时,函数计算选择成为“AI 乐高”的底座 —— 开发者不必在“快速验证”与“深度定制”间妥协,而是以开放架构实现“从实验室到生产可用”的无缝跨越,让 Agent 真正成为企业数字生产力的通用组件。
Serverless 是当前技术领域最有可能演进为 AI Native Infra 的技术架构,函数计算正着力于打造模块化的 Agent Infra 之剑,助力开发者从“生态应用者”进阶为“能力定义者”,最终推动 AI 技术走向开放共享的创新之路。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-07-31
进阶版|企业级 AI Agent 的构建实践
2025-07-31
餐饮业卷生卷死的当下,麦当劳如何用AI突围
2025-07-31
全网疯传GPT-5泄露!首次统一GPT和o系列,编程实测demo抢先曝光,下周发布?
2025-07-31
ODPS重磅升级!全面支撑AI应用爆发
2025-07-31
四步搞定Cursor地区限制
2025-07-31
当AI成为团队“隐形搭档”:Anthropic内部如何用AI重构工作流?
2025-07-31
解锁日志分析新姿势:n8n 工作流 + ES 日志 + AI,数据洞察一键 get
2025-07-31
微软花重金做的Copilot,居然被WPS一个按钮给秒了?
2025-05-29
2025-05-23
2025-06-01
2025-05-07
2025-05-07
2025-05-07
2025-06-07
2025-06-21
2025-06-12
2025-05-20
2025-07-31
2025-07-31
2025-07-31
2025-07-30
2025-07-30
2025-07-30
2025-07-30
2025-07-29