微信扫码
添加专属顾问
我要投稿
ICONIQ Capital最新AI报告《The Builder’s Playbook》揭秘:从概念到规模化落地的AI产品全流程实战指南。 核心内容: 1. AI产品开发全周期最佳实践:从实验到商业化的关键路径 2. 不同类型企业(AI原生型/AI赋能型)的差异化产品策略 3. 成本控制、团队构建与商业化落地的系统性解决方案
2025年ICONIQ Capital发布《The Builder’s Playbook》AI报告,聚焦AI产品的全生命周期构建与规模化落地,基于对300家软件公司高管(含CEO、工程负责人、AI负责人、产品负责人等)的调研,结合深度访谈,系统梳理了当前AI产品开发的核心趋势、挑战与实践。
相较于2024年,2025 年的报告完全转向“实操指南”:端到端构思、交付和规模化 AI 驱动产品所需的条件。报告剖析了构建者指南的核心维度,为所有负责将生成式智能从一个有前景的概念转变为可靠的、能带来收入的资产的人提供了一份蓝图。
1.产品路线图与架构:在模型演进的每个阶段,平衡实验、上市速度和性能的新兴最佳实践
2.上市策略:团队如何调整定价模型和上市策略,以反映 AI 独特的价值驱动因素
3.人才团队:构建合适的团队,以利用 AI 专业知识、促进跨职能协作并维持长期创新
4.成本管理与投资回报率:与构建和推出 AI 产品相关的支出策略和基准
5.内部生产力与运营:企业如何将 AI 嵌入日常工作流程,以及生产力提升的最大驱动因素
目录
一、数据来源与方法论
受访者企业概况:汇总了2025年4月对300位(北美、欧洲)正在构建AI产品的软件公司高管的调查数据,包括首席执行官、工程主管、AI 主管和产品主管。
AI 成熟度
大多数 SaaS 公司已经逐步增加了新的 AI 功能和产品;接下来的内容将深入探讨 AI 赋能型和 AI 原生型公司如何开展产品开发。
·传统 SaaS:围绕核心业务流程构建的基于订阅的应用程序交付
·AI 原生型:核心产品或商业模式由 AI 驱动(32% 的受访者):其整个价值主张围绕生成式智能构建 —— 模型训练、推理和持续学习是客户价值和增长的基本驱动力
·AI 赋能型:为现有产品添加 AI 功能(31% 的受访者):将 AI 驱动的功能嵌入旗舰产品,以提升自动化、个性化和终端用户生产力 —— 同时基本保留底层商业模式和用户体验
·AI 赋能型:创建新的(非核心)AI 产品(37% 的受访者):在核心产品组合之外提供独立的 AI 驱动产品或服务,以探索相邻用例和收入流
二、生成式 AI 产品的构建
主要 AI 产品的阶段
与 AI 赋能型公司相比,AI 原生型公司在开发周期中更靠前,约 47% 的受分析产品已达到关键规模并验证了市场契合度。
这引发一个问题:AI 原生型组织是否在结构上更具优势——通过团队构成、基础设施或融资模式——能更有效地验证产品-市场契合度并实现规模化,或许能跳过AI赋能型公司在将AI整合到现有工作流程时的试错阶段。
AI 产品类型
智能体工作流和应用层是 AI 原生型和 AI 赋能型公司最常构建的产品类型;值得注意的是,约 80% 的 AI 原生型公司目前正在构建智能体工作流。
模型使用情况
大多数构建 AI 应用的公司依赖第三方 AI API;然而,更高比例的高增长公司同时会微调现有基础模型并从头开发专有模型。
高增长公司更倾向于微调现有基础模型或从头开发专有模型。收入超过1亿美元的后期公司中,开发专有模型的比例更高。
基础模型的首要考量因素:产品开发
为面向客户使用时,公司在选择基础模型时,将模型准确性列为首要因素。
在去年的人工智能现状报告中,成本在关键采购考量因素中排名最低,而在今年的数据中,成本排名大幅上升—— 这可能反映出随着 DeepSeek 等更具成本效益的模型兴起,模型层出现了商品化趋势。
顶级模型提供商
OpenAI 的 GPT 模型仍然是最受欢迎的模型;然而,许多公司正越来越多地采用多模型方法来开发AI产品,以应对不同用例。受访者平均使用2.8个模型。公司正越来越多地采用多模型方法开发AI产品,根据用例、性能、成本和客户需求利用不同的提供商和模型。这种灵活性使它们能够优化多样化的应用,如网络安全、销售自动化和客户服务,同时确保跨地区的合规性和卓越的用户体验。架构设计支持快速模型切换,一些公司倾向于使用开源模型以获得成本和推理速度优势。一般而言,大多数受访者结合使用OpenAI模型和1-2个其他提供商的模型。
模型训练技术
检索增强生成(RAG)和微调是最常见的模型训练技术;高增长公司倾向于使用更多种类的基于提示的技术。
与去年的人工智能现状报告相比,本年度调查中有更高比例的受访者在积极使用 RAG 和微调技术。
AI 基础设施
大多数公司正在使用基于云的解决方案和 AI API 提供商进行训练和推理。大多数组织倾向于采用完全托管的AI解决方案——68%完全在云端运营,64%依赖外部AI API提供商——因为这种模式最大限度地减少了前期资本支出和运营复杂性,同时加快了上市速度。
模型部署挑战:产品开发
公司在部署模型时面临的主要挑战包括幻觉、可解释性/信任度以及投资回报率的证明。
AI 性能监控
随着 AI 产品的规模化,性能监控变得更加重要,许多规模化的 AI 产品提供某种高级性能监控。
智能体工作流
大量公司正在评估智能体工作流,高增长 AI 公司更积极地在生产环境中部署 AI 智能体。
三、上市策略与合规
AI 产品路线图
对于 AI 赋能型公司,其产品路线图中约 20-35% 聚焦于 AI 驱动的功能,而高增长公司的路线图中这一比例接近 30-45%。
主要定价模型
许多公司采用混合定价模型,包括基于订阅 / 计划的定价,以及基于使用量或结果的定价。
大多数 AI 赋能型 SaaS 供应商似乎将 AI 视为一种差异化因素或追加销售的钩子,而非独立的利润中心。虽然将AI捆绑到高级套餐中或免费提供是推动采用和抵御竞争对手的最快方式,但预计未来几年这种方式会发生转变,随着公司开始收集AI使用和投资回报率的遥测数据,可能需要转向基于使用量的模型以避免利润率压缩。
AI 功能 / 产品的主要定价模型(仅 AI 赋能型公司)
定价变化
40% 的公司没有改变定价的计划,但 37% 的受访者正在探索基于消费、投资回报率和使用等级的新定价模型。
向客户提供 AI 可解释性和透明度的策略
随着 AI 产品的规模化,向客户提供详细的模型透明度报告或关于 AI 如何影响结果的基本见解变得更加关键。
AI 合规与治理
大多数公司设有围绕 AI 伦理和治理政策的保障措施,大多数受访者使用人工介入监督来确保 AI 的公平性和安全性。
四、组织结构
专门的 AI/ML 领导层
许多公司在收入达到 1 亿美元时已配备专门的 AI 领导层,这可能是由于运营复杂性增加,需要有一个集中的负责人来制定 AI 战略。
AI 特定角色
大多数公司目前拥有专门的 AI/ML 工程师、数据科学家和 AI 产品经理,其中 AI/ML 工程师的平均招聘时间最长。
招聘速度
在受访者中,对招聘速度的看法相对平均,那些认为招聘速度不够快的人主要将缺乏合格候选人列为主要制约因素。
专注于 AI 的工程团队占比
平均而言,公司计划让 20-30% 的工程团队专注于 AI,高增长公司的这一比例更高。
五、AI 成本
AI 开发支出
平均而言,公司将约 10-20% 的研发预算分配给 AI 开发,大多数公司计划在 2025 年增加 AI 支出。
预算分配
随着 AI 产品的规模化,人才成本在总支出中的占比趋于下降;相反,随着产品开始获得市场认可,基础设施和计算成本往往会增加。
基础设施成本
在各种基础设施成本中,受访者认为 API 使用费用是最难控制的成本,这表明公司在与外部 API 消耗相关的可变成本方面面临最大的不确定性。
成本优化
为削减 AI 基础设施成本,组织正在探索开源模型和优化推理效率的方法。
模型训练
大多数受访者至少每月训练或微调一次模型,根据产品成熟度,估计每月模型训练成本在 16 万美元至 150 万美元之间。
部署成本:推理
推理成本在产品发布后激增,高增长 AI 公司在正式发布和规模化阶段的支出是同行的两倍。
部署成本:数据存储与处理
数据存储和处理成本从正式发布阶段开始急剧上升,高增长 AI 公司在数据存储和处理方面的支出高于同行。
六、内部生产力
年度内部生产力预算
所有收入层级的内部 AI 生产力预算在 2025 年几乎翻倍,公司的支出占总收入的 1-8%。
企业内部生产力预算来源
研发预算仍然是企业 AI 内部生产力预算最常见的来源;然而,我们也开始看到人力预算被用于内部生产力支出。
AI 获取与使用
约 70% 的员工可以使用各种 AI 工具提高内部生产力,但只有约 50% 的员工持续使用 AI 工具,在成熟企业(收入 10 亿美元以上)中,采用率更难提升。
基础模型的首要考量因素:内部用例
在为内部用例选择基础模型时,成本是最重要的考量因素,其次是准确性和隐私性。
内部用例的模型部署挑战
组织在部署 AI 用于内部用例时面临的最大挑战往往是战略性的(即找到合适的用例和证明投资回报率),而非技术性的。
用例数量
公司通常在各个职能部门探索多个生成式 AI 用例,员工采用率高的公司在 7 个以上的用例中使用生成式 AI。
顶级用例:按受欢迎程度
研发和销售与营销用例最受欢迎,而财务、行政与人力资源用例相对滞后。
顶级用例:按影响
按影响排序的顶级用例与使用趋势一致,编码辅助在生产力的实际影响方面远远超过其他用例。
对内部 AI 采用的态度
高增长公司更积极地试验和采用新的 AI 工具,这表明领先公司将 AI 视为战略杠杆,并更快地将其整合到内部工作流程中。
投资回报率追踪
大多数公司正在衡量内部 AI 使用带来的生产力提升和成本节约。
七、AI 构建者技术栈【划重点!】
模型训练与微调的最常用工具
·框架与托管平台:核心深度学习框架仍然流行,PyTorch 和 TensorFlow 占所有受访者使用量的一半以上。但它们几乎与完全托管或 API 驱动的产品相当 ——AWS SageMaker 和 OpenAI 的微调服务的普及表明,团队在 “自建” 和 “托管” 之间存在分歧。
·生态系统参与者的崛起:Hugging Face 生态系统和 Databricks 的 Mosaic AI 训练正在占据重要位置,提供比原始框架更高层次的抽象。同时,更专业或新兴的工具(AnyScale、Fast.ai、Modal、JAX、Lamini)的使用率为个位数,这表明实验正在进行,但广泛采用仍处于初期阶段。
·企业级需求:后期公司(收入 5 亿美元以上)通常拥有更大的数据团队、更复杂的管道以及更严格的安全、治理和合规要求。Databricks 的统一 “数据湖仓” 架构(融合数据工程、分析和机器学习)和 AnyScale 的托管 Ray 集群(简化分布式训练和超参数调优)直接满足这些企业需求,收入 5 亿美元以上的受访者中使用这些解决方案的比例更高。
最广泛使用的工具(按字母顺序)
大语言模型与 AI 应用开发的最常用工具
·编排框架占主导地位:顶级框架包括 LangChain 和 Hugging Face 的工具集,这表明团队显然重视简化提示链、批处理以及与公共或自托管模型交互的高级库。约 70% 的受访者还表示他们使用私有或自定义大语言模型 API。
·安全性和高级 SDK 的崛起:约 30% 的受访者使用 Guardrails 执行安全检查,近 25% 的受访者利用 Vercel 的 AI SDK(23%)进行快速部署,这表明生产环境中的大语言模型应用需要保障措施和简化的集成层,这一点日益得到认可。
·长尾实验:新兴参与者如 CrewAI、Modal Labs、Instructor、DSPy 和 DotTXT 的使用率较低,这表明虽然实验广泛,但除主要参与者外,尚未形成广泛的标准化。
最广泛使用的工具(按字母顺序)
监控与可观测性的最常用工具
·现有基础设施仍占主导:近一半的团队依赖其现有的 APM / 日志堆栈(Datadog、Honeycomb、New Relic 等),而不是采用机器学习专用工具 —— 这凸显出集成便利性和组织标准化往往超过定制 AI 监控的好处。
·机器学习原生平台的初步 traction:LangSmith 和 Weights & Biases 的采用率均达到约 17%,表明市场对无需依赖 legacy 系统即可监控提示链、跟踪嵌入和发现漂移的交钥匙解决方案有实际需求。
·分散的长尾和知识差距:除排名前两位的机器学习原生工具外,使用率迅速分散,10% 的受访者不知道他们使用的是哪种工具;这表明生成式 AI 的 “可观测性” 概念尚处于萌芽阶段,生态系统仍在发展中。
最广泛使用的工具(按字母顺序)
推理优化的最常用工具
·NVIDIA 在生产中的主导地位:TensorRT 和 Triton 推理服务器合计采用率超过 60%,凸显出 NVIDIA 的堆栈在提升基于 GPU 部署的延迟和吞吐量方面仍占主导地位。
·跨平台替代方案的市场份额增长:ONNX Runtime(18%)是顶级非 NVIDIA 解决方案,反映出团队希望在 CPU、GPU 和加速器上实现硬件无关的加速。TorchServe(15%)同样表明纯 PyTorch 服务仍有一席之地,特别是对于仅 CPU 工作负载或更简单的容器化设置。
·知识差距和未开发的潜力:17% 的受访者不知道他们使用的是哪种优化工具,14% 的受访者表示 “没有使用”,这表明在推理调优方面存在明显的困惑或经验不足,这为围绕量化、剪枝和高效运行时的教育(和工具)提供了机会 —— 特别是对于规模化运营的团队。
最广泛使用的工具(按字母顺序)
模型托管的最常用工具
·直接来自提供商是主流:大多数团队通过 OpenAI、Anthropic 等直接访问模型主机,这凸显出最便捷的方式仍然是调用供应商自己的推理 API,而不是通过中间层构建或集成。
·超大规模云厂商紧随其后:AWS Bedrock 和 Google Vertex AI 占据了相当大的份额,反映出市场对统一的企业级机器学习平台的强劲需求,这些平台将托管与治理、安全和计费集成在一个界面中。特别是,更多后期公司(收入 5 亿美元以上)报告使用超大规模云厂商的解决方案。
·分散的替代方案和新兴参与者:除三大厂商外,使用率迅速分散到 Fireworks、Modal、Together.ai、AnyScale、Baseten、Replicate、Deep Infra 等参与者。这种长尾表明团队仍在探索专业主机,通常是出于独特的定价、性能服务等级协议或功能集(如自定义运行时、本地部署选项)的驱动。
最广泛使用的工具(按字母顺序)
模型评估的最常用工具
·没有明确的独立领导者:近四分之一的团队使用 Vertex、Weights & Biases 或 Galileo 等平台的内置评估功能,而 20% 的受访者表示 “不知道” 他们使用的是哪种工具,这表明许多组织仍依赖其现有机器学习堆栈中内置的评估功能,而不是采用专用框架。
·新兴的专业框架:LangSmith 和 Langfuse 在专用评估工具中领先,HumanLoop 和 Braintrust 也显示出增长势头;这些平台通过提供更丰富的提示级指标、可定制的测试套件和开箱即用的漂移检测来赢得关注。
·知识差距和自定义解决方案:近四分之一的受访者不知道他们使用的是哪种评估工具或没有评估工具,这表明生成式 AI 的 “评估” 概念存在混淆,以及未监控模型退化的风险。同时,一些受访者正在构建自己的评估管道,这表明现成工具尚未涵盖所有用例。
最广泛使用的工具(按字母顺序)
数据处理与特征工程的最常用工具
·经典大数据工具仍占主导:Apache Spark(44% 的受访者)和 Kafka(42% 的受访者)领先,这凸显出在规模化场景下,团队默认使用经过验证的分布式批处理和流处理框架进行 ETL 和实时数据摄入。
·Python 的基础地位:尽管存在大量大数据足迹,41% 的受访者仍依赖 Pandas—— 这表明对于较小的数据集、原型设计或边缘情况,内存 Python 工具的简单性和灵活性仍然不可或缺。
·特征存储的前景:只有 17% 的受访者使用专用特征存储,这表明虽然 “一次构建,到处使用” 的特征概念越来越受关注,但大多数组织尚未在规模化层面将其投入运营。随着成熟度的提高,我们可能会看到特征存储和轻量级编排工具(Dask、Airflow 等)的排名上升 —— 但目前 Apache 生态系统仍占主导地位。
最广泛使用的工具(按字母顺序)
向量数据库的最常用工具
·搜索引擎演变为向量存储:Elastic 和 Pinecone 领先采用率,反映出团队要么改造现有的全文搜索平台用于嵌入,要么采用专用的托管向量引擎。
·Redis 和 “长尾”:Redis 显示出利用现有内存数据存储的吸引力,而 Clickhouse、AlloyDB、Milvus、PGVector 等其他解决方案则凸显出许多组织正在试验不同的后端以平衡成本、延迟和功能需求。
·开源解决方案的兴起:Chroma、Weaviate、Faiss、Qdrant 和 Supabase 的向量插件等专业开源工具正在削弱早期领导者的地位,这表明在易用性、扩展性和云原生集成方面存在竞争激烈的战场。
最广泛使用的工具(按字母顺序)
合成数据与数据增强的最常用工具
·内部开发占主导:超过一半的团队(52%)构建自己的工具,这表明现成的提供商仍难以覆盖所有用例或与现有管道集成。
·Scale AI 是明确的供应商领导者:采用率为 21%,Scale AI 是首选的第三方合成数据平台 —— 但即使是它也只覆盖五分之一的组织。
·程序化框架的初步增长:Snorkel AI 和 Mostly AI 表明程序化标记和生成工具正获得关注,但仍远落后于自定义解决方案。
最广泛使用的工具(按字母顺序)
编码辅助的最常用工具
·先行者的主导地位:GitHub Copilot 被近四分之三的开发团队使用,这得益于其与 VS Code 的紧密集成、多语言支持以及 GitHub 庞大用户群的支持。Copilot 的网络效应和产品市场契合度使其难以被取代,但 Cursor(50% 的受访者使用)的强劲次位表现表明市场对多样化 IDE 集成的需求。
·长尾产品滞后:在排名前两位之后,采用率急剧下降,形成分散的长尾解决方案,这表明虽然大多数团队至少试用过一种辅助工具,但很少有团队标准化于替代方案。低代码或无代码解决方案如 Retool、Lovable、Bolt 和 Replit 也获得了一定关注,表明市场对从想法到应用程序解决方案的需求日益增长。
最广泛使用的工具(按字母顺序)
DevOps 和机器学习运维的最常用工具
·MLflow 领先但无垄断:MLflow 被 36% 的受访者使用,是实验跟踪、模型注册和基本管道编排的明显领先者 —— 但这仅略高于三分之一的团队,表明替代方案有很大空间。Weights & Biases 也拥有 20% 的受访者使用,反映出其作为用于跟踪、可视化和协作的托管 SaaS 的吸引力。
·除前两名外,使用率迅速分散:16% 的受访者 “不知道” 哪些工具支持其机器学习运维,其他提到的工具包括 Resolve.ai、Cleric、PlayerZero、Braintrust 等。这表明 DevOps 与机器学习运维的职责划分存在混淆,市场仍在整合中。
·跟踪与全规模运维之间的差距:MLflow 和 W&B 等以跟踪为首要功能的平台占主导地位,这表明许多团队尚未采用端到端机器学习运维套件 —— 持续交付、漂移监控或自动回滚对大多数团队来说仍在推进中。
最广泛使用的工具(按字母顺序)
产品与设计的最常用工具
·Figma 的近乎普遍使用:采用率达 87%,Figma 实际上是 UI/UX 和产品设计的事实标准 —— 团队绝大多数依赖其实时协作、组件库和插件生态系统,而不是寻求 AI 专用设计工具。
·Miro 用于更高层次的协作:采用率为 37%,Miro 仍然是线框图、用户旅程映射和跨职能头脑风暴的首选工具;其白板风格的界面补充了 Figma 的像素级画布,特别是在早期构思阶段。
·AI 驱动的产品线框图的兴起:设计团队尚未迫切需要 AI 原生产品 / 设计平台,但许多团队正在使用 Bolt、Lovable 和 Vercel V0 等低代码 / 无代码解决方案进行快速原型设计。
最广泛使用的工具(按字母顺序)
END
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-07-31
进阶版|企业级 AI Agent 的构建实践
2025-07-31
餐饮业卷生卷死的当下,麦当劳如何用AI突围
2025-07-31
全网疯传GPT-5泄露!首次统一GPT和o系列,编程实测demo抢先曝光,下周发布?
2025-07-31
ODPS重磅升级!全面支撑AI应用爆发
2025-07-31
四步搞定Cursor地区限制
2025-07-31
当AI成为团队“隐形搭档”:Anthropic内部如何用AI重构工作流?
2025-07-31
解锁日志分析新姿势:n8n 工作流 + ES 日志 + AI,数据洞察一键 get
2025-07-31
微软花重金做的Copilot,居然被WPS一个按钮给秒了?
2025-05-29
2025-05-23
2025-06-01
2025-05-07
2025-05-07
2025-05-07
2025-06-07
2025-06-21
2025-06-12
2025-05-20
2025-07-31
2025-07-31
2025-07-31
2025-07-30
2025-07-30
2025-07-30
2025-07-30
2025-07-29