微信扫码
添加专属顾问
我要投稿
AI Agent正重塑产业形态,从企业服务到智能家居,其主动决策能力带来革命性变化。 核心内容: 1. AI Agent如何从被动响应升级为主动决策的核心枢纽 2. 支撑Agent智能的复杂基础设施与关键技术突破 3. 企业应用面临的五大痛点及商业化挑战
经过两年多的发展后,AI开始加速进入Agent时代。
当AI从“被动响应”迈向“主动决策”,AI Agent正成为连接数字世界与物理世界的核心枢纽。
从自动处理客户服务工单的企业Agent,到协调多步骤科研实验的学术Agent,再到管理智能家居生态的个人Agent,这种具备推理、规划、记忆与工具使用能力的智能体,正在重塑产业形态。
但支撑其智能的,是一套复杂且精密的基础设施——它不仅包含算法与模型,更涵盖从研发到部署、从协作到运维的全生命周期支撑体系。
2025年,AI Agentic基础设施(Agent Infra)迎来爆发拐点。DeepSeek、Qwen等开源大模型的突破为 Agent提供了强大的认知“大脑”,而模型上下文协议(MCP)的生态繁荣则赋予其灵活“四肢”。
据IDC预测,全球80%企业将在年内部署Agent。“大脑”与“四肢”的协同进化,正在倒逼承载二者的“躯干”全面升级,Agent Infra成为技术攻坚的核心战场。
Agent企业应用
面临五大痛点
利用AI的能力将工作流程自动化,这类产品早已有之。在生成式AI出现之前,就有RPA类产品大行其道。
但限于当时的AI能力还较弱,RPA只能将简单的单一工作流程自动化,不具备真正的智能,不能解决复合化的复杂问题。
直到生成式AI出现,各种真正具备智能的Agent应用出现,人们才从AI自动化中获得了很好的效率提升。
Agent本质是一个能调用各种工具的AI。比如Manus,它用提示词控制AI模型,并编排了一个精巧的工作流(Work Flow),让AI模型使用各种不同的工具,然后完成一个复杂的任务。
但是,无论是以DeepResearch为代表的研究类Agent应用,还是Manus这样的通用Agent应用,都是通过网页或App的形式对终端的用户提供。
这种提供方式,并不适合专业的AI开发者,AI创业者和企业用户。因为他们的需求是让Agent使用专有的数据,无缝地嵌入到业务中,为业务持续提供价值。
商业化使用Agent,首先遇到的就是终端性能,但当一个功能强大的Agent在用户本地的终端运行时,会遇到各种各样的问题。
首当其冲的是AI推理的算力限制。Agent由一个能力强大的AI模型及一堆供它调用的工具链组成。
运行能力强大的AI模型,通常需要AI专用的算力,由GPU或AI专用芯片提供,几乎没有消费级的PC或手机能部署高精度的大模型本体。因此,目前大量的Agent公司都采用了云端算力的方式,将模型的训练和推理都放在云端完成。
其次是执行任务的算力。Agent任务具有高并发、高算力需求的特点,企业在本地部署了Agent后,当Agent支持的业务量开始快速增长时,马上就需要更多算力,本地部署的速度跟不上;反过来,当这个业务闲置时,又没有那么多算力需求,会对企业造成巨大资源浪费。
比如Manus在初期是用本地服务器的虚拟机去做任务,这也导致它在用户大量涌入的时候,出现了性能不足、服务不稳定的情况,一定程度上影响了初期口碑。
再次是AI工具配置麻烦。Agent若不能调用工具,就很难具备解决复杂问题的能力。
例如,要搭建一个销售类Agent,它需要调用CRM获取客户信息,调用内部的知识库以备自动向客户介绍产品,还需要调用各种通讯工具以便直接触及到客户。
国内各地已经有不少的智算中心,可以初步缓解算力限制问题,但是这些智算中心却只提供算力,不提供搭建Agent需要的各种工具链。
企业要定制与业务紧密耦合的Agent,就需要自己搭建工具链。这是一个很复杂的工程,一方面需要很高的开发成本,另一方面,在Agent正式部署前,需要不短的开发时间,这反而会延缓企业的业务发展速度。
当解决了算力限制和AI工具配置的问题后,专业AI开发者和企业用户马上会遇到第三个问题是权限冲突。
开发和部署Agent的目的,是将其嵌入到自己的业务中。而这个过程,除了要调用各种各样的工具以外,还需要与业务中的各类软件紧密配合。
以销售类Agent为例,当它调用CRM,内部知识库和对外通讯工具时,不仅会占用本地计算资源,更麻烦的是,它会抢占人类员工的访问和操作权限。
当Agent不是与人类协同,而是互相内耗时,反而可能拉低整个团队的整体工作效率。
对于企业用户,还有一个大问题,就是安全性差。企业使用Agent的目的就是要增强自己的业务,或者提高员工的效率,这势必需要使用公司的内部数据。
但是Agent任务执行是一个黑盒子,执行过程对于用户来说是不透明的,有可能对本地电脑文件系统进行修改、删减等操作,轻则留下垃圾文件造成系统臃肿,重则造成文件丢失或数据泄露。
更进一步,其实Agent在调用工具时,本身就会有安全隐患。
据统计,超过43%的MCP服务节点存在未经验证的Shell调用路径,超过83%的部署存在MCP配置漏洞;88%的AI组件部署根本没启用任何形式的防护机制。
当未来Agent的使用越来越普及,安全和信任的重要性,在AI时代比在互联网时代更加重要。
当真正把本地部署Agent用起来后,企业还会面临一个问题,就是Agent缺乏长期记忆。
当缺乏语义记忆和场景记忆,Agent能完成一次性的任务,这会严重影响Agent在企业业务中的使用范围。
当企业用户将Agent用到业务中时,如果能为其赋予长期记忆,那么Agent除了能够完成多次任务,企业还可以根据这些记忆迭代Agent,使其对业务或用户的理解越来越深,在特定任务上的能力越来越强。
Agent Infra乘风而来
如今,云厂商竞相推出新一代Agent Infra技术架构。
比如AWS 推出AgentCore(预览版),其基于Lambda FaaS基础设施深度定制和优化的全托管运行时,为Bedrock Agents解决了标准Lambda的关键限制,如长时执行、状态记录、会话隔离等。
Azure则推出AI Foundry Agent Service,集成Functions FaaS事件驱动使得Agent Service能够利用Serverless计算的事件驱动、可扩展性和灵活性,更轻松地构建和部署Agent。
Google Cloud推出Vertex AI Agent Builder,官方虽未明确但普遍推断其高度依赖并优化了Cloud Run(Cloud Functions 2nd Gen已经基于Cloud Run来构建)来支撑长时运行、并发和有状态的需求。
阿里云推出函数计算Function AI,官方明确基于FC FaaS的Serverless x AI运行时深度优化,推出模型服务、工具服务、Agent 服务,开发者可自主选择模型、运行时、工具的一个或多个以组装式设计构建和部署Agent。
PPIO推出国内首个Agentic AI基础设施服务平台——AI智能体,该AI智能体平台产品分为通用版和企业版。
通用版以分布式GPU云底座为支撑,发布中国首款兼容E2B接口的Agent沙箱,以及更适用于Agent构建的模型服务。
Agent沙箱专为Agent执行任务设计的云端安全运行环境,支持动态调用Browser use、Computer use、MCP、RAG、Search等各种工具,为Agent赋予安全可靠、高效敏捷的“手和脚”。目前,该沙箱已接入Camel AI、OpenManus、dify等著名开源项目。
这些技术共同指向同一目标——为Agent提供更高弹性、更低延迟、更强安全、更长会话的“躯干”,支撑其从实验室迈向千万级企业场景。
当认知与行动完成闭环,Agent Infra的技术代差将决定企业AI创新和转型的落地速度与质量。
Agent开发范式的演进对底层基础设施提出了全新要求。
各大云厂商的新一代 Agent Infra聚焦长时运行、会话亲和、会话隔离、企业级IAM和VPC及模型/框架开放等技术突破,本质上是为满足三类核心Agent形态的共性需求。
首先是LLM Agent连续调用工具的强诉求。LLM Agent需连续调用工具链完成复杂推理,可能跨越数分钟甚至数小时。
传统Serverless的执行时长限制(如 AWS Lambda 的15分钟上限)会强制中断任务,因此新一代Agent Infra必须突破该限制,支持长时运行。
同时,为维持多轮对话的上下文一致性,需会话亲和确保同一请求路由到同一计算实例,避免状态丢失。
其次,Workflow Agent对状态管理的依赖。自动化工作流(如数据处理 Pipeline)需持久化记录执行状态。
传统Serverless的无状态特性无法保存中间结果,而新一代Agent Infra通过提供有状态会话保障工作流的原子性和可恢复性。会话隔离则确保多租户或高并发场景下任务互不干扰,满足企业级安全合规要求。
第三,Custom Agent的灵活性与生态整合。Custom Agent需集成异构工具(API、领域模型、数据库、Code Interpreter、Browser Use等),要求新一代Agent Infra支持模型/框架开放(如 AutoGen、LangChain、AgentScope)。
封闭式架构会限制Agent能力扩展,而云厂商通过解耦计算层与框架层,可提供插件化集成接口。
新一代Agent Infra在保留Serverless核心优势(全托管免运维、轻量弹性更经济)的同时,通过关键功能(长时运行、会话亲和/会话隔离)和技术突破(状态持久化、冷启动优化、开放集成),解决了LLM Agent的持续推理、Workflow Agent的复杂状态流转、Custom Agent的灵活定制等核心需求。
这标志着Agent开发正从“手动拼凑传统组件”转向“利用原生Infra实现高效、安全、可扩展的开发部署”这一全新的技术路径。
随着Agent应用进一步加速,Agent Infra成为模型公司、云厂商、初创公司都在积极拓展的领域。除了云巨头外,创业公司在这个领域也有不小的机会。
首先,是在已有Infra中寻找有AI-native需求的环节。这种需求可以是Agent开发对该环节的某些性能提出了更高的要求,例如Sandbox需要更快冷启动速度、更强的隔离性;这种需求也可以是需要和AI workflow结合的更好,有更多AI-native的功能点,例如增加RAG功能,或者和某些AI开发者常用的语言或SDK有更好的结合。
其次,抓住Agent开发中的新痛点。Agent开发要追求R&D和时间投入的ROI,对降低开发门槛和工程量的Infra产品有较大需求,因此一套易用性高且价格合理的Infra就有机会被广泛采用。而且Agent生态是一个强调共建的生态系统,而Infra的持续创新,正在大力推动这种生态的构建。
当开发一个Agent变得像组装乐高积木一样便捷,当Agent协作网络渗透到社会的每个角落,我们将不再争论“这是风口还是泡沫”,因为这是一个正在到来的新未来。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-06
在笔记本上,部署 gpt-oss-120b 模型
2025-08-06
WeKnora:基于大模型的新一代文档理解与检索框架
2025-08-06
OpenAI 为什么要开源大模型 gpt-oss?
2025-08-06
Coze Studio 快速上手指南
2025-08-06
本地部署了一个 gpt-oss:20b,实测同级别感觉还不如deepseek-R1:14b
2025-08-06
企业级 AI 编程神器上线!MonkeyCode:私有部署、安全编程,研发团队加速利器
2025-08-06
OpenAI开源模型一手简单实测
2025-08-06
OpenAI被开源倒逼,一口气开源2个超级重磅模型GPT-OSS
2025-07-23
2025-06-17
2025-06-17
2025-07-23
2025-07-14
2025-07-27
2025-07-12
2025-07-29
2025-07-29
2025-05-29