支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


将AI当模型看,为什么能少走很多弯路?

发布日期:2025-06-10 07:50:32 浏览次数: 1523 作者:模型视角
推荐语

理解AI模型的本质,避免不必要的误解和弯路。

核心内容:
1. 大语言模型被误解为“会说话的人”或“专家”的原因
2. 数学模型在简化复杂世界中的作用与本质
3. 大语言模型作为参数化建模工具的结构和偏差分析

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

这个标题对很多读者而言会觉得有点奇怪:

“AI(这里特指大语言模型)不就是一种数学模型么,很显然的事有必要拿出来讲么?”

有必要,是因为我们常常忘记大语言模型的本质。

在我们当前的语境下,因为大语言模型的巨大成功,我们会将其视为一个“会说话的人”,或一个“无所不知的专家”,甚至一个“觉醒的意识体”。

我们开始赋予它意志、情绪和判断,亦开始恐惧它的取代、操控和失控。但实际上,大语言模型不过是一个庞大的数学函数,是对语言行为的高维建模。

我认为这种视角并不冷漠,恰恰相反,它是一种理性、克制而务实的认知方式。本文来探讨这一点。

模型是复杂世界的简约表达

数学模型的作用,是在不损害决策价值的前提下,简化现实

从经典物理的微分方程,到经济学的最优化模型,再到社会科学中的网络模型,其共性都是对复杂系统进行形式化、结构化的表达,从而捕捉关键关系,并用于推演与干预。

每一个数学模型都是目的性、结构化、约简化的工具

  • 它有特定的建模目标(解释、预测、优化);
  • 它选择部分变量进行表达,必然忽略其他因素;
  • 它以逻辑规则或统计模式建立变量之间的关系。

大语言模型(LLM),从这个意义上看,就是对人类语言行为的参数化建模工具。它不是“人在思考”,而是“模型在拟合”语言出现的可能性与结构逻辑。

大语言模型的结构本质

我们可以把语言模型抽象为一个数学函数:

其中,输入是自然语言构成的提示词,输出是模型“认为”最可能接续的语言片段。而这个函数的核心是一个参数空间——由数以千亿计的权重组成的神经网络,它通过优化某种损失函数,最大化生成语言的“似然性”。

这就像一个极其复杂的回归或分类模型,只不过预测对象不是数值或标签,而是下一个最合理的词语、句子乃至段落。它并不知道自己在说什么,它只是在建模语言数据中出现过的“共现概率”。

当我们说“大语言模型会编故事”“有逻辑漏洞”“会一本正经地胡说八道”时,实际上是在描述一个近似函数拟合失败的典型表现:输入偏离训练分布、目标函数不包含逻辑约束、缺乏现实验证机制。

错误即模型偏差,而非认知失败

为什么要强调“它只是一个模型”?因为这可以帮助我们正确理解它的错误来源,不将其误读为人的意图、能力或道德问题。

举几个常见例子:

事实性错误:不是模型“撒谎”,而是其训练语料与现实不一致,或未激活正确的上下文模式;

逻辑不通:不是模型“思维混乱”,而是目标函数未要求逻辑一致性;

语义模糊:不是模型“打太极”,而是语言结构本身高度模糊,模型只能在统计模糊中择其最大概率。

这些都不是“智能”的失败,而是“建模”的偏差。在传统数学建模中,我们也会遇到“残差”“外推失败”“过拟合”等问题。语言模型,只是将这些误差带入了文本生成中。

用“模型误差”而不是“思维缺陷”来解释语言模型的表现,是我们保持理性、控制风险的前提。

提示词即边界条件

数学建模中的关键,不仅在于模型结构本身,还在于如何施加边界条件与输入控制。大语言模型的提示词(prompt)正好扮演了这个角色:

  • 它是对初始状态的控制
  • 它是对上下文空间的激活
  • 它是对模型输出方向的微调

这使得我们在使用大语言模型时,本质上是在做一种“交互式建模”:

  • 你输入的每一个提示词,其实是在“设定边界条件”;
  • 你提供的样例和格式,是在“约束解空间”;
  • 你对输出的修正与反馈,是在“优化目标函数”。

这要求我们像使用一个复杂控制系统一样,了解模型结构、调整输入方式、评估输出边界

必须设定“使用假设”

一个重要而常被忽略的问题是:使用一个模型之前,必须设定它的使用假设。

在传统建模中,我们会明确假设诸如“线性关系”“变量独立性”“观测误差可控”之类的前提。

同理,我们在使用语言模型进行写作、翻译、问答、辅助决策等任务时,也必须明确相应的假设:

  • 模型的输出是否需要人工审核或二次验证?

  • 模型是否只能在特定语境下应用,比如非关键决策场景?

  • 该任务是否需要事实准确性或逻辑一致性作为基础?

  • 模型是否存在价值偏向或伦理风险,需要附加约束机制?

只有在明确这些假设之后,才能将大语言模型作为“可控系统”来使用。否则,我们很容易陷入两种误区:

一是“技术信仰主义”,将模型神化,赋予它不具备的能力,甚至将其等同于专家判断;

二是“技术虚无主义”,因其出错而全盘否定语言模型的价值,错过人机协作带来的增效空间。

这两种态度其实都是非理性的。理性的态度,是在认识模型本质的基础上,给它设定清晰的边界,让它在预期的框架内运行。

去“拟人化”,是一种必要的清醒

当前大众对大语言模型的误解,很大程度上源于一种“拟人化”的叙事方式。我们说模型“理解”“知道”“记得”“思考”,甚至“有偏见”“有意识”,这在语义上都是错误的类比。

语言模型不具有内在的“理解力”——它只是通过语言统计规律,捕捉到某种连贯性

它不具有“知识”——它只是储存和压缩了大量文本相关性,并能调用这些模式生成内容;

它更不可能具有“意识”或“判断”——它既不理解人类行为的意图,也无法承担行为的后果

将它拟人化,只会引发过高的期望值,并导致认知错配伦理混乱。而当我们回到“数学模型”的角度来看,就可以更准确地回答三个关键问题:

  • 它做对了什么?

  • 它做错了什么?

  • 该如何改进或控制?

换句话说,当我们去除人类意志投射之后,才能看到一个清晰的“函数体”:一个复杂而强大的生成器,可以协助我们处理信息、生成语言、提高效率,但必须在控制范围之内运行。

理性的第一步,是语言的清晰。大语言模型不是“谁”,而是“它”——它不是意识体,而是参数体;它不是道德主体,而是函数结构。

我们要做的,不是崇拜它、恐惧它、拟人它,而是理解它、控制它、调优它


大语言模型是一项划时代的技术突破,但我们对它的态度,也应是成熟的、克制的和理性的。

将它视为一个数学模型,不是为了贬低它的功能,而是为了更好地使用它

模型的优点,是结构明确、可分析、可调节;模型的局限,是受限于数据、假设和表达能力。这些优缺点同样适用于大语言模型。

在未来的人工智能时代,我们将不断面对越来越复杂的模型系统。是否具备一种将其“模型化”的思维方式,将决定我们能否驾驭工具而不是被工具裹挟。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询