支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


软件公司如何为AI的下半场做准备?

发布日期:2025-05-10 19:25:10 浏览次数: 1513 作者:CxO卓越圈
推荐语

深入解析AI发展新趋势,软件公司如何把握AI下半场机遇。

核心内容:
1. AI发展从“训练模型”到“定义任务”的战略转变
2. 强化学习的泛化能力与AI新阶段
3. 评估机制的重要性及产品思维的引入

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

姚顺雨先生的文章《The Second Half》详细阐述了人工智能(AI)发展的“下半场”战略转变。姚顺雨在2024年8月份加入的OpenAI,担任研究科学家,本科毕业于清华大学的“姚班”,,博士毕业于普林斯顿大学。文章核心观点如下:

从“训练模型”转向“定义任务”:在AI发展的上半场,研究重点集中在开发新的训练方法和模型,如Transformer、深度强化学习和大规模预训练模型,推动了AI在多个领域的突破。然而,随着技术的成熟,姚顺雨指出,AI的下半场将把重心从“解决问题”转向“定义问题”。这意味着,研究者需要像产品经理一样思考,明确AI应该为谁解决什么问题,以及如何衡量“解决得好不好” 。

强化学习的泛化能力:姚顺雨强调,强化学习(RL)终于具备了泛化能力。过去,RL的应用往往局限于特定环境,难以推广。如今,通过结合语言和推理,RL能够解决更广泛的任务,如软件工程、创意写作、数学问题、鼠标键盘操作以及长篇问答等。这一进展标志着AI进入了新的发展阶段 。

评估机制的重要性:在AI的下半场,评估机制变得比训练更为重要。姚顺雨指出,传统的评估方法往往忽视了环境和先验知识的重要性,导致算法在特定环境下表现优异,但在实际应用中效果不佳。因此,重新设计评估机制,确保其能够真实反映模型在现实任务中的表现,是AI未来发展的关键 。

产品思维的引入:姚顺雨提出,AI研究者需要引入产品思维,关注AI系统在实际应用中的效果和用户需求。这意味着,研究者不仅要关注模型的性能,还要考虑如何将技术转化为有用的产品,满足市场的动态变化 。

您可以通过以下链接阅读原文:? The Second Half – Shunyu Yao(https://ysymyth.github.io/The-Second-Half/)

受到此文章启发,我与AI写了这篇文章,主要回答如下问题:大模型时代AI的上半场核心是什么?为什么说我们已经进入了AI的下半场?AI的下半场的核心是什么?软件公司如何为AI的下半场做准备?感谢姚顺雨先生。

大模型时代AI的上半场核心是什么

过去十多年里,人工智能(AI)的上半场主要由大模型和新算法的突破所驱动。各类里程碑式成果层出不穷:深蓝战胜国际象棋棋王、AlphaGo击败围棋冠军、GPT-4在法律和数学考试中达到超越大多数人类的水平等。支撑这些辉煌战绩的是一系列核心技术进步:从经典的搜索算法、深度强化学习,到大规模预训练和推理技术,每一次突破都带来了AI能力的飞跃

在上半场,Transformer架构和GPT系列模型AI演进中的标志性里程碑。2017年提出的Transformer模型引入自注意力机制,极大提升了模型并行训练和理解长序列依赖的能力,为之后的预训练大模型奠定了基础。随后,基于Transformer的预训练模型蓬勃发展:BERT在自然语言理解任务上取得突破,GPT-32020年以1750亿参数展示了惊人的Few-Shot学习能力,让模型可以在零样本或少样本的情况下解决新任务。这些基础模型(Foundation Model)在自然语言和计算机视觉等领域通用能力的提升,推动AI性能在多个基准任务上节节攀升

可以看到,上半场的核心竞赛在于能否训练出更好的模型以及能否在基准测试上取得更高分。学界公认为最有影响力的论文往往提出新的模型或训练方法,例如AlexNet(深度卷积网络)、TransformerGPT-3。这些工作通过在公开数据集上的显著成绩证明了其价值。然而,从另一个角度看,这也反映出上半场评价标准的局限:大家更关注模型本身的改进,真实任务和评测基准往往只是检验模型的工具。毕竟,在AI能力尚处于较低阶段时,只要模型智能水平提高,往往就能在各种任务上带来改进,因此关注点集中在如何提高模型性能本身。

总的来说,AI上半场的核心特征是:算法驱动、模型为王。通过不断创新网络结构和训练范式(如深度学习、Transformer、大规模预训练等),AI系统的智能水平获得了数量级的提升。这一阶段,AI更像是一个强大的工具被研发出来,用以在各种人工设计的测试中比拼成绩。

为什么说我们已经进入了AI的下半场

如今,业界普遍认为我们正站在“AI的下半场起点。这一判断背后有着技术范式和实践导向的双重转变OpenAI研究员姚顺雨在其《The Second Half》一文中指出:“AI已经进入中场休息时间,随之而来的下半场将与上半场有本质不同。

首先,从技术里程碑看,我们已经找到了一套有效的AI配方,使AI广泛任务上取得突破。过去,强化学习(RL)经常被视为通往通用智能的终极途径,但其泛化能力一直受限。然而在近期,通过将大模型与RL相结合(例如对话模型中采用人类反馈强化学习RLHF),同一种范式开始能够解决多种复杂任务。例如,一个经过精调的GPT-4模型竟然可以同时完成编程、创意写作、奥数解题、跨软件操作、长篇问答等众多原本彼此毫无关联的任务——这一情景在一两年前几乎难以想象,却在最近变成现实。这表明AI领域出现了范式跃迁:大模型预训练提供了强大的先验知识,再辅以少量任务特定训练或反馈,AI就能在多个领域表现出色。这标志着上半场以不断提升模型算法为中心的游戏发生了质变,为下半场奠定基础

其次,上半场那种刷榜式的竞赛模式正在发生改变。姚顺雨指出,大模型的通用配方已经标准化和工业化,不断扩大规模即可在多数基准上取得长足进步。这导致两个结果:一方面,研究者辛苦设计一个针对特定任务的新模型也许只能带来5%的提升,而下一代通用大模型(如OpenAI内部称“O系列的模型)未经针对优化就可能提升30%。另一方面,即使我们新构建更难的评测基准,大模型往往也能迅速通关。换言之,以往提升算法->提高分数->发布论文的循环正在失去效力,卷模型参数、卷Benchmark”的做法对推动实际效果的边际贡献变小。

更重要的是,AI的经济价值实现没有跟上技术成绩。尽管AI在围棋、考试、奥赛等方面击败了人类,但从宏观经济和生产力看,并没有出现与这些突破相称的巨大变化。姚顺雨将其称为AI效用问题(utility problemAI在实验室和比赛中表现神勇,然而对现实世界的生产力提升却不明显。这提示我们:过去评估AI成功的标准(如竞赛分数、基准集准确率)可能与实际业务价值脱节,AI研究范式需要从追求指标转向追求真实效用。也正因如此,越来越多业内人士意识到我们正进入一个新的阶段,下半场的焦点不再是单纯提高模型在封闭环境下的表现,而是AI真正融入现实场景,创造切实价值

综上,我们进入AI下半场有三大原因:通用大模型范式成熟,使模型提升变得容易且泛用;传统竞赛式创新红利减少,需要新思路打破瓶颈;以及现实价值的落差,倒逼AI从实验室走向产品化。正如姚顺雨所说,下半场的关键在于我们必须改变心态和技能组合,从研究者思维切换到更接近产品经理的思维。只有这样才能在新的比赛中取得胜利。

AI的下半场的核心是什么

AI下半场的核心理念可以用一句话概括:定义任务比解决任务更重要。在这个阶段,AI不再被视为炫技式的工具,而是作为产品来对待,我们需要用构建产品的思维来推动AI发展。这意味着以下几个重点:

1.明确定义真正有价值的问题。 上半场我们常说给定任务,想办法让模型把它做好;而下半场要反过来思考——“当前最值得AI去解决的任务到底是什么?” 正如姚顺雨指出的,下半场将从解决问题转向定义问题。因为随着大模型能力变强,能不能解决很多已不成问题,关键是解决什么问题才有意义。定义任务包含厘清用户的真实痛点、业务诉求,以及AI是否适合解决该问题。在企业产品情境下,这常常意味着产品经理要深入业务场景,找到那些解决后能带来显著价值的问题,并将其清晰地描述为AI模型可以接受的任务形式。例如,与其让团队花大力气提高聊天机器人1%的闲聊准确率,不如定义一个更切合业务的目标,如让客服机器人在商品退换货场景下有效识别用户情绪并给出安抚措施,这样的任务定义直接面向真实需求,价值也更直接。

2.重塑评估机制,评估比训练更重要。 在下半场,仅有强大的模型还不够,我们必须建立科学有效的评估体系来衡量AI是否真正达成了预期目标。传统上,评估往往局限于离线指标(准确率、F1分数等)或封闭测试集上的表现。但正如姚顺雨所指出的,许多默认的评估假设并不符合现实:举例来说,真实交互中用户和AI是反复对话的,而基准评测通常假设模型一次性输出答案;又如现实任务是连续的、有记忆累积的,而评测集却将每个样本独立对待。因此,下半场我们需要大胆质疑并重新设计评测方案。可能的做法包括:引入人类参与的评价(例如让真人用户与AI互动来评判效果)、模拟真实业务流程的测试环境、设计长期连续任务来测试AI的持续学习与适应能力等等。评价机制创新的目标是确保模型的性能指标与真实业务效用相关联,不再让AI为了考试得高分而训练,而是为了在实际应用中表现优秀而优化。如姚顺雨所言:我们要根本上审视现有评测方式,创造新评测,从而逼出配方之外的真正创新。在这个过程中,评估甚至比训练更重要——有了好的评估标准,我们才能知道训练出的模型是否真正有用。

3.用产品思维打造AIAI是产品,不只是工具。 下半场要求我们将AI系统视作一个持续迭代的产品来看待,而不仅是一锤子买卖的算法工具。这意味着关注用户体验、可维护性、可靠性和价值交付AI作为产品,需要考虑如何融入用户的工作流程,如何呈现结果,如何获取反馈并不断改进。这与传统软件产品并无二致。姚顺雨强调,要在下半场取得成功,需要一种更接近产品经理的心态和技能。例如,在设计一个AI驱动的SaaS新功能时,团队不仅要关心模型预测的精度,还要关心用户看到预测后会如何理解和使用——这涉及解释可理解性(用户为何得到这个结果?)、交互设计(如果模型不确定时如何提示?)、失败保障(出错时是否有备用方案?)等产品层面的考量。正因为此,有人提出“AI即产品经理,意思是AI项目组需要有人专门平衡技术与体验,让AI真正落地成为用户愿意使用的产品。只有当AI被以产品方式交付给最终用户并持续创造价值时,我们才能说AI从实验室走到了现实世界。下半场的胜负手在于:谁能最快将AI技术打造成用户买单的产品,谁就能在新的竞争中领先。正如姚顺雨所说,下半场的玩家将通过构建有用的智能产品来创造数十亿甚至数千亿美元的价值——AI不再是炫技的工具,而成为改变产业格局的产品力量。

综上,AI下半场的核心不在于炫耀模型能力有多强,而在于选对赛道、跑出价值。定义正确的问题、用恰当的指标评估进展、用产品思维打磨体验,这三者共同确保AI真正解决实际问题、赢得用户青睐。下半场比拼的是AI转化为产品和生产力的能力,这将深刻决定软件公司和行业未来的成败。

软件公司如何为AI的下半场做准备

面对AI的下半场浪潮,SaaS和企业软件公司需要从组织到战略进行全方位准备,才能抓住机遇、应对挑战。以下几个方面至关重要:

组织结构:打造跨职能AI产品团队

在下半场,软件公司首先需要调整组织结构,组建跨职能的AI产品团队。传统的软件开发团队可能将AI开发孤立在研发部门或实验室,但下半场要求AI与产品深度融合,因此团队需要汇集多角色协作,包括产品经理(PM)、AI工程师/数据科学家、后端开发、数据工程师以及评估与运维人员等。一个理想的AI产品团队应当既有懂业务和用户需求的产品角色,也有精通算法模型的技术角色,同时增加评估和反馈职能以确保模型效果符合预期。

具体来说,可以包含以下关键角色:

  • 产品经理(PM):负责定义AI产品的愿景与目标,深刻理解用户需求和业务痛点,将这些转化为AI功能的规格。PM需要在AI项目中平衡技术可行性和用户价值,确保团队做的事情。

  • 数据科学家/算法工程师:负责模型选择、训练和优化。他们构建或调用适合问题的大模型或算法,并不断调试提升性能。这一角色关注AI的智能水平,在下半场也要与PM紧密合作来确定任务定义和指标。

  • 后端/应用开发工程师:负责将AI能力集成到公司的产品应用中,实现模型推理服务化以及与现有系统的对接。这包括构建API、微服务,以及必要的工程优化,确保AI功能可以稳定、可靠地在生产环境运行。

  • 数据工程师:负责准备和管理数据管道,为AI提供高质量的训练数据和持续的输入数据。在下半场,数据质量和新鲜度直接影响AI效用,数据工程师要确保数据基础设施支撑模型持续迭代。

  • 评估与质控人员(AI QA/评估工程师):这是下半场新兴且重要的角色,专门设计并执行模型评测方案,对模型输出进行质量监控。他们相当于AI产品的测试和监管,使用预先定义的评估指标不断检验模型在真实场景下的表现,及时发现问题。例如,Morgan Stanley能够成功部署GPT-4助手,背后就建立了一套严格的评估框架来测试每个应用场景的模型表现,以确保输出质量达到理财顾问预期的高标准。这种框架对每个AI功能点进行上线前的验证,并引入专家反馈来持续改进模型

  • 域专家或业务分析:在一些垂直领域软件公司中,最好还包括行业领域专家,如医疗AI产品中有医生顾问,ERP系统的AI项目中有供应链专家等。他们帮助团队正确定义问题和审核AI决策,避免技术人员闭门造车。

通过跨职能团队合作,企业可以打通AI开发的全流程:从需求定义、数据获取、模型研发到产品化落地和持续监控。这种组织方式被证明是AI项目成功的关键。团队成员共同为AI产品的最终成效负责,能够避免传统组织中研发生出模型但产品用不好的脱节现象。软件公司应该营造这样的协作文化,让AI研发不再是实验室里的孤岛,而是融入产品开发主线。

产品战略:以问题定义和评估指标为核心,将AI嵌入业务场景

有了合适的团队,还需要正确的产品战略来指导AI项目的方向。下半场的软件公司应当采用问题定义驱动的产品战略,即先找准要为用户解决的核心问题,再决定用何种AI技术来解决,并围绕问题设计评估指标和产品方案。

1.明确业务问题和应用场景。 产品战略的第一步是定义问题。公司应梳理自身产品或客户业务流程中最具价值和痛点的环节,评估AI是否有机会改进。关键在于选取那些高影响力、可落地的问题作为切入点。例如,一家ERP软件公司发现客户在库存管理上耗费大量人工且经常预测不准,那么库存需求预测就是一个高价值问题,可以尝试用AI解决。在这个阶段,团队要避免为用AI而用AI,而是聚焦AI能带来质变的用例。正如前文所述,下半场强调定义任务比解决任务更重要”——软件公司需要像产品经理那样先问用户真正需要的AI功能是什么?,而不是先有模型再找应用。

2.转化为AI任务并设计评估指标。 一旦确定了要解决的业务问题,就需要将其转化成可由AI模型处理的任务形式,并为其制定明确的评价指标。例如,上述库存预测问题,可以转化为根据历史销售和相关数据,预测未来四周各SKU的需求量的时间序列预测任务。评估指标可以定义为预测的误差范围、库存周转率改善等业务KPI。制定指标时,下半场要特别注意业务相关性:指标应能直接反映AI给业务带来的改善,而非仅仅技术上的分数。如对客服机器人,与其只用模型准确率,不如加入用户一次对话解决率”“用户满意度评分等指标来评估AI的实际服务效果。姚顺雨指出,要勇于质疑既有评测方式,创建新的评价维度。因此,软件公司在产品战略上应投入时间设计贴近真实效用的指标体系,比如对于生成式AI写作功能,设计人工评审的质量得分;对于预测类AI功能,引入实际业务收益指标。这套指标体系既是开发阶段的指南,也是上线后的监控依据。

3.AI功能嵌入产品工作流,闭环反馈。 策略的第三步是考虑如何在产品中呈现和交付AI功能AI只有融入用户的实际工作流才能发挥价值,因此软件公司需要规划产品交互,使AI输出对用户可见、可用。例如,在SaaS应用中增加一个AI推荐模块,或在现有功能中加入AI自动处理的选项。在设计这些功能时,要遵循产品可用性原则:提供适当的用户控制(例如允许用户调整AI建议),明确展示AI结果(例如标注推荐原因或置信度),并设计反馈机制。反馈机制非常重要,它使AI产品形成持续改进的闭环:用户可以评价AI输出的好坏、纠正错误,系统将这些反馈收集起来用于下一轮模型优化或规则调整。下半场的AI产品应该像互联网产品一样,不断根据用户行为和反馈迭代。举例来说,微软在Office办公软件中嵌入Copilot智能助手后,收集了大量企业用户使用情况来调整模型建议的呈现方式和安全设置。这种动态优化正是产品思维的体现:关注用户体验并持续改进,而非一次部署就完事。

4.引入试点和小步快跑策略。 在产品战略上,软件公司可以采用MVP(最简可行产品)思维,逐步验证AI功能的价值。在AI下半场,快速试错尤为重要。可以先在小范围用户中试点AI功能,通过收集指标和反馈来验证效果,然后逐步扩展。比如某SaaS厂商计划上线一个AI驱动的数据分析助手,可以先邀请一些核心客户内测,通过指标(如分析报告完成时间缩短%)和主观反馈评估助手是否真正帮到了用户。如果结果不理想,及时调整问题定义或模型方案。小步迭代能够降低风险,也让团队在真实环境中不断校准产品方向。这与传统AI研究强调在开放数据集上一次性达到最好成绩的做法不同,而更接近Lean Startup的方法论:以终为始,从实际价值出发,快速验证改进。

总体而言,下半场的软件公司应让产品战略牵引AI开发,而不是技术研发脱离产品需求单打独斗。通过以业务问题为导向、制定合理评估标准、精心设计用户体验以及快速迭代,AI功能才能真正嵌入产品价值链,为客户创造持续收益。

技术栈升级:构建可持续的RAG、评估和可解释性模块

为支撑下半场的AI产品化,软件公司还需要升级自身的技术栈。这包括采用新架构以提升模型效用、建立完善的评估管道保障质量,以及增加可解释性以提高信任度。以下三个方面是重点:

1.引入检索增强生成(RAG)框架,结合大模型与企业知识。 大模型在通用领域表现强大,但在企业业务场景中往往需要访问专有知识和实时数据。RAGRetrieval-Augmented Generation)框架正是为此设计的技术架构,它在大模型生成回答前增加一个检索步骤,从知识库或数据库中提取相关信息来喂给模型。通过RAG,大模型不再孤军奋战,而是能利用企业内部的权威数据来提高回答的准确性和时效性。对于SaaSERP厂商,这意味着可以将自家系统的业务数据、用户手册、历史记录与大模型对接,让AI功能对客户更有用。例如,一个CRM软件内置的AI助手可以先检索客户数据库、过往沟通记录,再由大模型生成销售跟进建议——这个建议将比纯粹语言模型凭空编写更贴近实际情况。RAG的另一个好处是降低大模型产生不实幻觉的风险,因为模型参考了权威知识来源AWSRAG的定义是:通过让LLM引用外部知识库,生成更加可靠和有依据的响应。因此,软件公司应投资构建企业知识库和向量数据库,并开发检索组件(例如利用关键词搜索或Embedding相似度检索)与大模型对接。这套RAG框架需要可持续运作:定期更新知识库内容、监控检索效果、维护索引性能等,使得AI模块始终掌握最新、最准确的业务信息,持续输出高质量结果。

2.建立自动化的评估和监控框架(Eval Ops)。 如前文所述,评估在下半场至关重要。因此技术栈中应包含完善的模型评测与监控管道。在模型上线前,团队应当实现自动化的测试:针对每个AI功能用例,准备一系列测试数据和场景,评估模型的输出是否符合期望指标。这类似于传统软件的单元测试+集成测试,只不过对象是AI模型。例如,对于客服机器人,可以有一组典型用户问询及期望回答的测试集,用以计算模型的准确率、礼貌程度等。在模型部署后,评估更要持续进行——上线监控。可以实时记录模型交互日志,采集用户反馈标注,将这些数据送回评估管道计算性能指标的漂移。一旦发现模型效果明显下降或出现偏差(例如回答错误率上升,用户负反馈变多),能及时预警,触发模型重训或热修复。Morgan Stanley的案例显示,一个健全的评估框架AI成功落地的基石。他们在部署GPT-4助手前制定了详尽的评测,比较模型摘要和专家摘要的差异,并由理财专家打分校准模型。上线后又不断通过专家反馈来调整提示和输出。软件公司应借鉴这种做法,将Eval OpsEvaluation Operations)作为MLOps的重要一环,配备专门工具与仪表盘,做到对AI表现心中有数。只有评价机制到位,才能确保AI产品的质量可控、稳定可靠地为用户服务。

3.加强AI结果的可解释性和透明度。 在企业应用中,可信任比炫技更重要。很多行业用户在使用AI时关心模型为何这么判断、依据是什么,下半场的软件公司需要在技术上给予支持。这意味着构建可解释性模块,让AI决策过程和依据对用户和运维人员尽可能透明。具体实现方式因应用而异:对于预测模型,可以提供关键特征贡献度、决策规则可视化;对于生成式AI,可以在答案旁边展示引用的知识来源、通过高亮来标注模型生成内容与检索资料的对应关系,等等。例如,一款法律SaaSAI助手在给出法律建议时,可能同时列出参考的法规条文或过去案例,以赢得律师用户的信任。再比如,对话机器人在回答复杂问题时,先呈现一个由工具检索的事实列表,然后基于这些事实作答,使用户明白答案并非凭空而来。这种做法既提高了结果的可解释性,也有助于用户自行验证结果正确与否。

数据和研究表明,可解释性正成为AI落地的关键要求:麦肯锡2024年的一项调查中,40%的企业高管认为缺乏可解释性是采用AI的主要风险之一。然而目前只有不到五分之一的企业在积极应对这一问题。因此,软件公司在技术栈升级时有机会通过领先一步的XAI(可解释AI)能力来建立竞争优势。这可以包括:使用诸如LIMESHAP等算法为模型决策做解释,打造用户友好的解释界面;在产品层面提供“Ask why”功能,允许用户询问AI决策依据;建立AI输出日志审计机制,方便内部追踪模型行为。这些措施能显著提升用户对AI功能的信任度。当用户和决策者更信任AI,他们才会更广泛地使用AI,从而真正释放AI对业务的价值。简而言之,下半场的软件技术栈不再只是追求模型更高的精度或速度,而是要补上数据、评估、解释这三块短板,使AI应用成为企业可信赖的合作伙伴而非黑盒风险。

商业模式:定位服务化还是工具化,并制定AI增值的定价策略

除了技术和产品层面的准备,软件公司在AI下半场还需要重新审视商业模式,尤其是如何将AI能力商业化、如何定价。大模型的引入可能影响现有SaaS的收入结构和价值定位,公司应提前规划服务模式收费策略,以充分捕获AI带来的价值。

服务化 vs 工具化的定位: 企业应决定是将AI功能作为一种服务提供,还是仅仅当作产品中的附加工具。所谓服务化,指的是将AI能力包装成持续提供的服务,可能独立于原有软件产品。例如,一家ERP公司可以把其AI预测模块作为云服务接口提供给客户,按使用次数或效果收费,这更接近“AI即服务(AIaaS的模式。服务化通常意味着厂商会持续参与AI功能的运营、更新和支持,更像提供一种解决方案服务。而工具化则是把AI当作产品功能的一部分出售,用户获得的是一个具备AI功能的软件许可证或订阅,厂商不额外就AI部分收费或运维。例如,把AI功能直接内嵌进标准SaaS套餐里,用户付的仍是软件订阅费。这两种模式各有优劣:服务化可以针对AI创造新的收入流,并根据使用量获取价值,缺点是增加了运营复杂度;工具化则简单直接,有助于快速推广AI功能,但可能无法单独衡量AI带来的价值。

许多公司正在尝试平衡这两种模式。例如,Salesforce在其CRM中集成了Einstein AI功能,早期是作为高价企业版的一部分提供,相当于工具化赠送,后来也推出Einstein功能的附加套餐,迈向服务化收费的方向。软件公司需要根据自身情况选择路径:如果AI是核心卖点且运维成本高,倾向于服务化以确保投入有回报;如果AI只是增强现有产品竞争力的辅助,可能选择工具化融入产品,加量不加价以提高用户黏性。无论选择哪种,都应在对外传达时明确AI功能的价值主张——是作为独立服务帮客户解决特定问题,还是作为产品升级带来更好体验。

AI增值模块的定价策略: 定价是商业模式的关键细节。在AI下半场,业界尚在探索合理的AI定价方式,但已经出现一些模式供参考:

  • 高级附加包(Premium Add-on): 这是目前较常见的做法,即在原有订阅基础上收取额外费用开通AI功能。例如Notion为其笔记软件的AI写作辅助功能收取每月$10的附加费,Miro白板的AI功能定价为每用户每月$20。这种策略清晰地将AI定位为高阶增值,适合愿意为更强功能付费的用户。根据2024年的市场观察,许多大型SaaS公司的AI附加费大致在其基础订阅价的50%左右,甚至有的超过100%。例如,Microsoft 365办公套件企业版约每月每席$45,而其Copilot AI助理定价为$30,约等于基本价的67%;又如Google面向企业的Workspace基础座席价$18Duet AI助手收费$20,甚至略超基础价。这表明这些厂商认为AI带来的价值可媲美核心产品本身。当然,也有厂商选择免费捆绑AI来抢占市场,比如ZapierZendesk将部分AI功能直接包含在产品中,不另收费

  • 按使用量计费(Usage-based): AI推理通常会产生可观的计算成本,因此按用量收费是符合成本结构的策略之一。这种模式下,客户根据调用API次数、处理的数据量或生成内容的字数等指标付费。开放AIChatGPT企业版以及一些AI平台走的是这种路径:基础订阅+超出部分按流量计费。Usage-based的优点是精细化定价,客户用多少付多少,厂商也能覆盖成本。但缺点是客户预算预测变复杂,可能引发对不确定费用的担忧。很多SaaS厂商在实现按用量收费时,会设置阶梯套餐或配额,以简化计费。例如某BI软件的AI分析功能每月包含100次查询免费额度,超过后按每千次收费。这使客户对成本有概念同时又能弹性使用。

  • 按成果计费(Success-based): 这是更激进也更创新的模式,只有在AI产生了预期效果时才收费。比如IntercomFin智能客服按成功解答的对话数收费——AI机器人解决了客户问题,公司才付费,否则不计费。类似地,一些反欺诈服务按每成功阻止一次欺诈收取佣金,仿佛与客户收益共享Success-based的好处是极大降低客户尝试AI的心理负担,因为没效果就不用掏钱。然而对厂商来说风险较高,且如何定义成功需要双方认可的标准。另外,这种模式下客户往往还会希望了解AI判断的依据,以信任计费结果,因而对AI性能和透明度要求更严。总体来看,此模式适合那些结果易衡量的场景(如交易成功率、销售线索转化等),但难以泛用于复杂应用

  • 价值定价(Value-based pricing): 从战略高度考虑,软件公司可以基于AI为客户创造的价值大小来定价,而非成本或功能多少。例如,如果某AI功能平均能帮客户节省10万美元成本,厂商可能定价2万美元/年让客户觉得物超所值。这需要对客户业务有深刻理解,以及充足的数据佐证AI带来的效益。价值定价往往体现在企业大客户谈判中,可以灵活定制。下半场一些AI企业服务在营销时也倾向强调ROI,根据提升绩效的比例收费等。

制定定价策略时,软件公司还应考虑AI对原有业务模型的冲击。AI提高效率可能减少用户对席位数量的需求(例如AI客服让人力客服减少),从而影响传统按用户席位收费的SaaS模式。有VC研究指出,如果AI带来50%的效率提升并假设客户因此减少50%人工席位,那为了保持收入不变,软件价格需提升近一倍。虽然现实中客户不会完全按此削减人力,而是可能把节省下来的时间用来扩张新业务,但厂商在定价时可以将效率红利部分反映到价格中。例如微软等公司定价Copilot时,就是假设了用户将获得约40-50%的生产力提升,于是按基础价格的约50%来收取AI

总之,灵活多样的定价模型将成为AI时代SaaS的一大特征。软件公司需要不断试验哪种策略被市场接受。在实践中,不妨先简单后优化:可以从附加费或高级版开始,当积累了用户使用数据和价值反馈后,再考虑更细粒度的usageoutcome收费。另外要透明沟通,让客户清楚付费和收获。例如提供计算器估算ROI,或者明确说明AI功能如何节省了多少人力成本。值得一提的是,一项近期调查显示近九成中型SaaS公司预期他们的商业模式会因AI而发生中度或显著变化,这印证了制定AI时代的新定价策略是行业共同面对的课题,也是下半场竞争的一环。谁能找到平衡客户价值与自身收益的最佳定价点,谁就能在商业上取得主动。

综上所述,AI的下半场对软件公司提出了全新的要求和机遇。技术高管和产品经理们需要携手,从组织、战略、技术、商业四个层面做好准备:组建跨职能团队让AI开发与产品融为一体;以用户价值为导向定义问题和评估成功,把AI真正嵌入产品;升级技术栈以确保AI系统持续有效且可信;探索创新商业模式将AI价值转化为持续收益。只有这样,软件公司才能在这一波AI浪潮的下半场立于不败之地,创造出新一代的智能软件产品,满足各行各业用户对AI的殷切期望,实现技术与商业的双赢。


图片

关于IDC CXO卓越圈 

图片

IDC CXO卓越圈旨在为CXO会员提供一个跨界、融合、共享、交流、通向卓越的平台,针对企业在数字化转型过程中遇到的问题进行探讨, 受邀的CXO会员不仅可以听到来自于IDC资深分析师的独家洞察,更可以各抒己见,与来自不同行业的CXO跨界交流, 共享卓越。

IDC CXO卓越圈通过三种方式与大家交流,一是每月一次的“IDC CXO专属下午茶”线上/线下活动,二是“IDC CXO卓越圈”微信群,三是“CXO卓越圈”公众号。

CXO卓越圈微信公众号的内容覆盖4大方向:总体信息通信技术与行业发展趋势,数字化转型的战略方法与实践,支持数字化转型的新技术趋势与应用,CXO角色与组织结构转型。

IDC与您一起在技术加速商业变革的数字经济时代共同学习和进步。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询