微信扫码
添加专属顾问
我要投稿
2026年企业AI将重塑商业格局,抓住机遇才能避免被时代淘汰。核心内容: 1. AI技术飞速发展与企业应用滞后的矛盾现状 2. 未来社会可能出现的0.1%与99.9%的极端分化 3. 企业构建AI壁垒的两大关键:速度与业务深度绑定
这期是一个视频播客。我和@吴晨老师(财经作家,畅销书《2049》作者),一起聊聊2026企业AI的信号、噪声与趋势。完整内容可以在我的视频号观看,文末扫码可以直达。播客文字版也整理出来给大家,欢迎交流!
我们正处在一个很奇怪的阶段:AI 能力在飞速增长,但真正把 AI 放进工作和组织里的人,远没有想象中多。
你必须持续奔跑,才能保持在原地;AI 抬高了平均值,也同时拉大了人与人之间的差距。
未来的分化,可能不再是二八或一九,而是 0.1 和 99.9,差距体现在你是否还“相关”。
即便是巨头,也没有真正的安全感,基础技术和上层应用正在同时被重构。
真正的壁垒不复杂:一是速度,二是能否真正进入现实世界,与真实业务深度绑定。
在企业级场景中,模型正在快速基础设施化,真正拉开差距的不是模型,而是上下文。
大模型第一次让企业能够把非结构化内容,转化为 AI 可理解、可推理的上下文资产。
文件本身并不重要,重要的是决策过程与「当时为什么这么选」。
真正有意义的 Agent,不是会聊天,而是能在过程中主动提醒你下一步。
技术已经很快了,真正慢的是人和组织;企业不是任务集合,而是人组成的系统。
AI 能写代码,是一个分水岭,它带来的不是效率提升,而是工作结构的变化。
面对 AI,要么只是提效,要么把它当作一块新大陆;如果只沿着旧边界加 AI,最终什么都不会真的改变。
(以下为本期播客核心观点整理)
最近越来越强烈的一个感受是:你必须持续奔跑,才能保持在原地。
这听起来有点像「红皇后效应」即使在物理环境相对稳定的情况下,物种也必须不断进化以适应其他物种的进化,才能维持生存地位,但放在今天并不夸张。技术进步一定会抬高平均值,这几乎是所有技术浪潮的共同结果。生活会更方便,效率会更高,很多原本麻烦的事情都会变得轻松。
但与此同时,差距也一定会被拉大,而且这种差距并不只体现在收入上,而是体现在你是否还和这个世界保持关联。
AI 很可能会让绝大多数人的生活变得更舒服,但也会让越来越少的人,对方向产生实质性的影响。它对工作的影响,对组织结构的影响,甚至对社会的影响,很可能会比互联网时代更深。
以前我们熟悉的是二八结构,后来是一九,再往后,可能会变成 0.1 和 99.9。
每个人迟早都会遇到一个阶段:
要么你还能参与这件事,要么你就逐渐被甩在一个“依然过得还不错,但不再相关”的位置上。
02.
没有绝对的安全区
巨头也不例外
直觉上,很多人会觉得未来一定属于那些拥有算力、资金和资源的巨头。但如果你真的站在这个行业内部,会发现一种普遍存在的不安全感。
这是一个非常少见的历史阶段:基础技术和上层应用,在同一时间发生剧烈变化。
这意味着什么?
意味着几乎所有既有优势,都在被重新评估。哪怕体量再大,也很难说自己一定不会被绕开。模型之间的起落已经反复证明,没有哪一条路径是天然稳固的。
在这种情况下,所谓壁垒反而变得很简单:
第一,是速度。
不是你有没有想法,而是你能不能更快试、更快错、更快调整。
第二,是你能不能真正进入现实世界。
如果只是停留在模型、算法、数字层面,优势会被迅速复制;只有当 AI 和真实业务、真实流程、真实数据深度绑定,壁垒才会慢慢形成。
中型企业往往处在一个非常尴尬的位置:它们既有过去的积累,又没有“大而不倒”的缓冲空间。如果过去不能被转化成新的资产,很快就会变成负担。
去年年底,很多人都在讨论“今年会不会是具身智能之年”。
机器人、自动驾驶、机械臂,这些话题当然重要,但如果只盯着这些,很容易忽略一个更大的背景。具身,只是 AI 和物理世界连接的一种方式,而且只是其中的一个子集。
真正有意思的问题是:
当 AI 作为一个更强的“认知系统”,进入那些高度复杂、长期依赖经验判断的实体行业时,会发生什么?
建筑、采矿、制造,这些行业并不缺自动化设备,真正稀缺的是对复杂系统的理解、推演和决策能力。
AI 和物理世界的关系,其实还远远没有真正展开。
在企业级 AI 的语境中,一个越来越清晰的判断是:模型本身正在快速走向基础设施化。无论是从技术演进,还是从市场格局来看,大模型都很可能像水、电、煤一样,成为一种“偏基础”的能力。模型会越来越好,但提供模型的公司反而会越来越少。
与此同时,ToB 和 ToC 对模型的诉求也在分化:
面向消费者的产品,更关心价格;
面向企业的系统,更关心稳定性、可控性和品质。
在这样的前提下,一个企业、一个组织,甚至一个个体真正拉开差距的地方,并不在于“你用的是哪一个模型”,而在于——这个模型到底在什么样的上下文中被使用。换句话说,真正的差异来自 context。
如果回到更具体的企业实践,这个变化其实已经发生了一段时间。在数字化时代,企业所说的“内容管理”,更多指的是:把图文、视频、方案、物料这些非结构化文件集中存放、统一管理,方便被调用、复用和分发。这些内容,主要服务的是营销、销售、传播等“用内容”的场景。
但在大语言模型出现之后,这些原本被当作“输出物”的内容,突然获得了一个新的身份——它们开始变成 企业上下文最重要的载体。原因并不复杂:大模型第一次具备了对非结构化内容的理解能力。过去,图文、视频只是“给人看”的;现在,它们可以被“转译”为模型可用的上下文。
这意味着,企业过去积累的所有内容,不再只是历史存档,而是可以真正被 AI 理解、调用和推理的资产。
但如果只停留在“把文件喂给模型”,这件事仍然是浅层的。真正有价值的上下文,并不只是结果,而是决策的过程本身。举个例子:一家企业把新品研发的整个流程,完整放到了系统里。在过去,这意味着什么?意味着文件被存下来了,之后可以通过搜索找到。但从上下文的视角来看,真正重要的不是这些文件,而是这些文件背后隐含的信息:
这个企业做过哪些类型的研发尝试
哪些路径被证明是成功的,哪些是失败的
哪些选择符合企业自身的文化与价值观
哪些决策最终被市场验证,哪些没有
这些东西,本质上构成的是一段集体决策记忆。
当 AI 能够读取的不只是“最后做了什么”,而是“当时为什么这么做”,它才真正开始理解这家企业。在这个语境下,原本看起来很普通的文件,开始发生质变。
它们不再只是孤立的 PDF、文档或物料,而是被放进了一条连续的决策链路中。
于是,系统记录的不只是“发生过什么”,而是:
谁在什么阶段参与了决策
做过哪些选择
为什么放弃了某些方案
哪些判断是在什么约束下做出的
这些信息加在一起,逐渐形成一种“上下文图谱”(context graph)。这张图谱的价值不在于存储,而在于推理。
当上下文被理解成“企业的长期记忆”,一件事就变得非常清楚:它不是一个一次性工程,而是一个持续生成的过程。每一次对话、每一次协作、每一次判断,都有可能成为未来 AI 理解你、提醒你、协助你决策的基础。
真正的挑战,不在于“有没有模型”,而在于:你是否愿意把自己的工作过程暴露出来,让它被记录、被理解、被复用。
当 AI 站在这张图谱上,它开始具备一种能力:在你做出一个选择之后,提醒你——接下来可能还有哪些选项。
并不是所有“能对话的 AI”都应该被称为 agent。真正有意义的 agent,至少具备一个关键特征——它是 proactive 的。也就是说,它不是只在你提问时回应你,而是在你工作推进的过程中,不断提示:
你现在做的这一步,通常会引出哪些下一步
在类似情境下,过去有哪些选择是有效的
有哪些你可能忽略,但值得注意的变量
而且,这种提醒并不是通用模板。因为上下文不同,它提醒不同人的方式、内容,也应该不同。同样一件事,对不同角色、不同背景的人,下一步“合理的行动”并不一样。
这时候,一个非常现实的问题浮现出来。在企业里,最有价值的经验,往往并不写在文档里。它们存在于老员工的判断、领导的取舍、反复出现但说不清的“感觉”中。很多关键决策,最终呈现出来的只是一个结果文件。真正决定方向的讨论、犹豫、权衡,反而被时间吞没了。
于是问题变成:有没有可能,让这些思考过程本身,成为上下文的一部分?
在对话中,给出了一个非常具体、也非常“工程化”的解法。当人和 AI 一起工作时,每一次深度对话,其实都包含了大量隐性经验:
如何拆解问题
如何判断信息是否有用
在什么条件下选择继续,或停下来
如果这些对话只是“一次性的”,经验就会流失。但如果它们被记录下来,并在你确认“这次做得不错”的时候,被提炼成一种新的上下文形态,就会发生变化。
这种形态,被称为 Agent Skills。下一次,当你面对类似任务时,你不需要从头解释逻辑,只需要把这些 skills 导入到新的 agent 中。
AI 会直接进入一种“曾经对过的工作状态”。
这里有一个很关键、但常被忽略的细节。在很多复杂工作中,人其实并不擅长把经验抽象成完整的方法论。但人非常擅长判断:这个是好例子,那个是坏例子。
过去,提示词工程中一个行之有效的方法,就是不断给模型举例子,而不是试图讲清楚抽象规则。Agent Skills,本质上正是把这种“通过例子学会”的方式,系统化了。你不需要完整说明“为什么这样做对”,你只需要让 AI 看到:在类似情境下,什么样的行为被认为是对的。
想象一个更未来感的场景:当智能体开始彼此协作,人与系统的关系会变成什么样?也许人不需要时时在场,但需要始终在 loop 里。系统应该做到几件事:
主动告知正在发生什么
长期监控重要变化
拥有比人更长的记忆
在关键节点,把问题抛回给人
这更像一种协作关系,而不是替代关系。
如果只给企业一套 AI 工具,AI 很可能只会变成“锦上添花”。真正困难的,不在于工具本身,而在于工具如何进入业务、如何影响绩效、如何改变人的行为方式。
这也是为什么AI 必须是 full stack 的。不是只教你“怎么用”,而是要陪着组织一起走过改变的过程。
有一个反复出现的判断,是把问题拆成两个速度:技术的速度,和人的速度。从技术角度看,很多事情其实已经成立了。
AI 已经不只是“给你建议”,而是可以操作人类最重要的生产工具——电脑。一旦 AI 能写代码,它本质上就具备了控制电脑的能力。而当它能控制电脑,就意味着:
所有我们今天通过电脑完成的知识工作,理论上都已经进入 AI 的能力边界。
写内容、做营销、回邮件、做分析、做研发、做新品规划……这些并不是未来式,而是已经发生的事情。
但真正的变化,并没有因此自动发生。
技术成立,并不代表组织就能跟上。AI 能做的事情,和企业里的人“真的能用起来”,中间存在巨大的断层。企业并不是由一个个任务组成的,企业是由人组成的系统。只要这个系统不允许、不鼓励、甚至不容忍新的工作方式,再强的技术也只能停留在“看起来很美好”的阶段。
在所有能力中,写代码被反复提及,不是因为它只影响研发,而是因为它解决了一个更底层的问题。
当 AI 能写代码,它就不再只是某个岗位的辅助工具,而是开始具备一种“通用行动能力”。很多原本需要排期、协调、等资源的事情,突然变成了:一个人就可以把事情先跑起来。
这带来的不是简单的效率提升,而是工作结构的变化。
过去,一个软件项目可能需要二十个人:前端、后端、测试、运维、产品、项目管理……任务是线性流转的,你永远在等别人完成。现在,即便不是所有环节都完美,一个人也更容易自我闭环。这意味着:个人对最终结果的影响力,在明显上升。
当一个人可以完成更多端到端的工作时,协作的方式自然会发生变化。“更少的人协作”并不是因为大家不愿意合作,而是因为很多过去必须依赖协作才能完成的事情,现在不再需要。
这会直接冲击一种非常熟悉的组织形态:以协调、对齐、汇报、联调为核心价值的岗位。在组织内部,冲击也并不是均匀发生的。有两类人,会感受到更直接的挑战:
第一类,是固定思维非常强的专家。
当他们的价值高度依赖某一套既定方法时,一旦这套方法被 AI 部分吸收,冲击会非常直接。
第二类,是以资源调配、任务分发、进度汇报为核心价值的中层管理者。
当个人闭环能力提升、团队变小、协作减少,这类角色会被迫重新定义自己的价值。
当团队变小,责任变完整,一个变化会非常明显:组织层级开始被压平。过去,一个管理者直接汇报的人数,被认为不应超过某个“合理范围”。但在 AI 的辅助下,这个假设正在被挑战。并不是因为管理消失了,而是因为决策与执行之间的距离被缩短了。
在实践中,一种新的组织形态正在形成。不再是按职能切割,而是由小规模的 Pod,端到端对一个业务目标负责。在 Pod 内,角色是多元的,一个人可以承担多个职责。职能并没有消失,而是被重新定义为 Community:它的目标不再是“管人”,而是“让更多人具备这种能力”。能力在组织中流动,而不是被锁死在岗位里。
培训不再只是提升能力的手段,也开始成为识别人的方式。当所有人都有机会学习、尝试 AI,谁愿意学、谁学得快、谁真的用、谁产生效果,都会自然显现出来。这比简历、头衔,甚至比面试更真实。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-11
全新DeepSeek发布!上下文扩展至1M
2026-02-11
刚刚,DeepSeek悄悄测试新模型:百万token上下文、知识库更新,V4要来了?
2026-02-11
DeepSeek V4 悄咪咪上线了?1M 上下文简直爽翻!
2026-02-11
深度求索突然出手!1M上下文碾压GPT-4?国内AI迎来全新突破
2026-02-11
从 Clawdbot 到 OpenClaw :揭秘 AI Agent 的三重生态系统供应链风险
2026-02-11
当 AI Agent 接管手机:移动端如何进行观测
2026-02-11
DeepSeek 刚刚发布了新模型!
2026-02-11
DeepSeek新模型来了!官网模型更新为最新版,实测显示非此前的DeepSeek V3.2,最高支持100万tokens输入,以及知识截止日期为2025年5月
2026-01-24
2026-01-10
2025-11-19
2026-01-26
2026-01-01
2025-12-09
2025-12-21
2026-01-09
2025-11-15
2026-01-09
2026-02-11
2026-02-11
2026-02-11
2026-02-11
2026-02-07
2026-02-04
2026-02-03
2026-02-03