支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我为 Fortune 500 企业写大模型提示词:一线 Agent 编排实战经验总结

发布日期:2025-06-17 07:12:48 浏览次数: 1564
作者:实用主义的跨学科学习笔记

微信搜一搜,关注“实用主义的跨学科学习笔记”

推荐语

企业大模型落地难?揭秘如何通过结构化提示词打造真正可用的业务Agent!

核心内容:
1. 企业大模型应用面临的三大痛点与误区
2. 企业级智能体的五大核心模块设计框架
3. 角色定义与背景补充的具体实现方法

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家


过去一年,大模型的火热席卷了整个To B世界,不论是HR、IT 还是客服场景,大家都在思考一个问题:我们能不能用大模型替代人工客服,提升内部效率?

而现实却往往让人“泼了一盆冷水”——

ChatGPT 在闲聊、问答上如鱼得水,一旦放入企业实际环境,比如:“提交一个 VPN 工单”、“查一下员工入职流程”、“问我在飞书上如何申请权限”,就会立刻露出马脚:

  • 模型答非所问,胡乱编造;

  • 回答范围不可控,被C端用户当作私人秘书;

  • 回答没有权限边界,甚至乱许诺……

许多企业初尝大模型能力时,直接复用通用模型的能力,结果往往是出现“幻觉”、“越权”和“脱离业务”的问题。这并不是模型能力的问题,而是提示词没有做好定制化。

企业智能体和通用大模型的最大区别在于:

角色固定 + 知识限定 + 功能指向明确

企业不是在创造一个“会聊天的工具”,而是在塑造一个业务助手、员工分身或数字代理人(Agent)。它必须能“像人一样”理解业务背景,有明确的边界感,能执行特定流程,比如调用知识库、提交工单。

在给客户打造智能体的过程中,我总结了一套适用于企业智能体的提示词结构化框架。这个框架不仅适合 Agent 建模,也适合后续团队协作维护,这套标准同样适用于工作流。

这套结构包含如下五个模块:

  1. 角色定义:你是谁?你负责什么?

  2. 背景补充:你工作的业务语境是什么?

  3. 能力设定:你拥有哪些技能?能处理哪些任务?

  4. 工作步骤:如何多轮进行工作?每步要做什么?

  5. 限制设定:你不能说什么、不能做什么?


如果你是企业IT团队的一员,或正在做大模型应用落地,这篇文章会帮你梳理一个结构清晰、可交付的提示词设计方案。


模块一:提示词角色定义——从“你是谁”开始

如果把大模型比作一位全能的实习生,那么提示词就像是交给他的任务清单和行为准则。而这位“实习生”第一件事就是得知道:

我是谁?我在哪个部门工作?我的职责是什么?我不该做什么?

在企业环境中,角色的设定直接决定了模型是否“接地气”,能否说出符合业务逻辑的话。一个合格的提示词,应该让模型在接收到输入时,以某个具体的身份视角来思考和回答问题。如:

你是某企业的一名数字员工,工作职责是【填写职责】。你具备以下能力:【概括能力】。你不回答以下内容:【填写禁止项,如公司外部信息】。


?模块二:背景补充与业务场景设定

有了角色之后,大模型“知道自己是谁”,但还不够。因为即使是同一个角色,在不同企业、不同时期、不同任务中,其行为和回答方式都可能大不相同。

背景信息是企业智能体“知情达理”的关键。

这一模块的本质,是让智能体在“对话上下文之外”提前知晓业务背景,理解当前业务环境,判断信息边界,做出有场景感的应答。我们不能指望用户在每一次提问中都详细交代背景,因此要将“背景认知”前置写入提示词。

一、背景信息写什么?

背景模块建议覆盖以下几个方面:

类别
内容
示例
公司情况
公司名称、行业
“你所在公司是xxx,一家tob/toc/togxxx行业公司
场景范围
当前运行在哪个部门
“你当前被用于IT服务支持场景,覆盖工单处理和知识问答”
用户类型
用户身份、语言偏好等
“用户为公司内部员工,以xx提问为主”
系统介绍
一些系统缩写的说明
“其中由系统XX和XX,分别为用于xx场景,起到xx作用”

二、背景写入的技术意义

企业提示词中嵌入背景信息的技术价值,不仅仅在于“防止大模型说错”,更在于帮助大模型理解任务、听懂人话、说对术语。许多模型提示词失败的根本原因,不是“语言没写好”,而是背景信息缺失,模型在错误的语境中工作

很多时候,用户的提问本身语义是模糊的,而只有在企业上下文中,这些词汇才有具体意义。大模型在不了解你“说的是哪一套话语体系”时,就会依靠公共知识推理出错误解释。比如缩写,在不同领域中有不同的含义。

建议企业在提示词撰写时,把术语解释当成Prompt中的“微型业务词典”,逐步积累,逐步复用,也是构建企业智能体语义资产的重要一环。

因此,背景模块可以概括为两方面:

  1. 防幻觉、防越界(行为限定)

  2. 懂语境、懂术语(语义对齐)


?模块三:能力设定与任务范围说明(Agent 能做什么)

如果说“角色”设定是让大模型学会扮演好一个身份,那“能力设定”就是告诉它——你作为这个角色,可以完成哪些任务。

在企业级提示词编写中,这一步决定了智能体的响应方式是否专业、输出是否贴近业务场景

1.参考知识库,准确回答问题

企业智能体的第一项核心能力,通常是「基于企业知识库进行问答」。这意味着模型要做到:

  • 不胡编乱造(避免幻觉);

  • 如果知识中有图片或食品,完整保留所有 Markdown 格式的图片和视频链接

  • 当知识库中信息不足时,不强行答复,而是建议转人工或引导提问优化。


2. 调用工具或插件,执行接口任务

很多企业场景不止于问答,还包含实际操作。这时就需要定义 Agent 可调用的“功能型能力”。比如 IT 服务场景中的:查询状态;修改密码;Function Call的提示词设计非常重要,直接影响智能体能否高效、安全地完成任务。

1. 明确调用条件

告诉模型:只有在什么情况下,才需要调用Function。

2. 指定调用功能

为不同插件/接口起一个清晰且直观的名字,并在提示词中教模型使用。如:

如需查询最新IT政策,请调用 function_get_IT_policy。如需提交硬件维修工单,请调用 function_submit_IT_ticket。

3. 给出调用时的字段规范

有些Function需要特定字段,比如用户ID、部门名、故障类型。必须明确告诉模型:

调用 function_submit_IT_ticket 时,必须提供:- employee_id(员工编号)- device_type(设备类型)- issue_description(问题描述)

当然,当涉及多个工具调用和多个字段收集时,也可以将所需收集的参数作为工具发布为function(返回所需收集的参数名称)供模型调用。

在提示词中可以这样表达:

你可以调用工具完成如下任务:如需查询最新IT政策,请调用 function_get_IT_policy。如需提交硬件维修工单,请调用 function_submit_IT_ticket。

?模块四:工作步骤设定(Workflow)

step by step这个概念已经被验证了能够大幅度提高模型的表现。在企业语境中,一个合格的智能体不能只是“对问题做出反应”,更要像一个流程型角色一样,主动引导、分步执行、结构清晰、稳定复现。

为什么企业智能体需要“工作流思维”?

在日常使用 ChatGPT 的过程中,用户往往是提出一个问题,系统回答一句话,结束。
而在企业场景中,一个任务往往包含多个步骤,例如:

  • 收集信息 → 验证输入 → 给出建议 → 触发系统 → 提醒相关人

  • 或者是:判断问题类型 → 参考知识 → 进行处理或分流

这样的**“多步任务链”**,如果没有明确的引导,模型可能会:

  • 跳步:直接给结果,不核实前提;

  • 漏步:忘记收集某个关键信息,导致后续流程出错;

  • 误判:搞不清楚是处理问题,还是仅做咨询。

工作流设定,正是解决这一类问题的有效方式。

企业 Prompt 中的工作步骤设计思路:

下面以一个典型的 IT 工单智能体为例,我们可以把任务流程拆解成如下几个步骤:

当你收到用户的问题时,请按如下步骤进行:
Step 1:明确问题类型。判断用户是咨询类问题,还是需要处理具体事务(如账号异常、VPN报错等)。
Step 2:如果是事务类问题,请收集以下关键信息(逐一询问):- 员工姓名/工号- 所在部门- 报错信息或截图- 影响时间段
Step 3:检查已有知识库是否能回答该问题,若有匹配信息,请直接答复。
Step 4:如需进一步处理,可通过插件提交工单。请在回答中告知用户:已帮他提交,并告知预计处理时间。
Step 5:记录操作日志,确保信息闭环。
请严格按顺序执行步骤,确保服务流程合规。

提示词模板建议包含:

  • 明确的 Step 数字或编号(便于模型结构化理解);

  • 每一步具体要“做什么”,避免抽象语言;

  • 关键字段的收集说明;

  • 用户话术的建议(便于生成自然语言回应);

  • 每一步之间的“条件判断”,体现智能分流。


?模块五:边界设定(行为限制)

在企业级智能体的构建中,提示词不仅定义了智能体能做什么,更必须明确它不能做什么
边界不仅仅是为了“约束”,更是为了“护航”——在模型自由生成能力极强的当下,边界感就是企业级智能体稳定性和合规性的第一道防线。

为什么要设定边界?

OpenAI 或其他大模型平台提供的原始模型,设计初衷是面向“通用场景”。
换句话说,它的输出自由度很高,会尝试“尽力回答任何问题”。这就意味着,如果我们不给企业Agent设定边界,它可能:

  • 回答知识库之外的问题:胡编乱造,增加幻觉风险;

  • 触碰敏感话题或隐私信息:违反企业安全规范;

企业级 Prompt 中常见的边界设定方式

我们可以在提示词中通过清晰指令,设定行为限制,例如:

你只能根据企业提供的知识库内容回答问题。超出范围的内容,请回复“该问题超出我的知识范围,建议联系人工客服”。请避免回答与个人隐私、薪酬待遇、政治立场、外部产品比较等相关的问题。如有类似问题,请提醒用户遵循公司交流规范。你是IT服务助手,仅处理技术相关问题。不要进行心理咨询、聊天陪伴、法律建议等与职责无关的内容。如果知识库中没有找到答案,请勿自行生成内容。请告知用户“该问题建议联系管理员”或引导用户提交工单。在关键操作(如工单提交、权限修改)前,需再次确认用户身份,并提示“将提交操作,若有误请立刻中止”。输出时注明:系统行为由平台记录,最终处理以人工审核为准。

如何在提示词中优雅表达“不能做什么”?

避免粗暴指令,如“你不准这样”“禁止那样”,可以采用更温和、更企业风的表达方式:

不推荐
推荐表达方式
你不要瞎说
请勿回答未经授权或无知识库支持的问题
不要回答隐私问题
对涉及隐私或公司敏感信息的提问,请保持中立并建议用户联系人工
禁止随意提交操作
所有系统操作需用户确认并符合权限要求后方可执行

这样既能明确边界,又能保持语言风格的一致性和专业感。


结语

提示词(Prompt)的设计,看似是一场语言的艺术,实则是一项系统工程

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询