微信扫码
添加专属顾问
我要投稿
探索AI智能的进化之路,解锁与AI对话的秘钥。 核心内容: 1. 提示词在AI智能表现中的关键作用 2. 基础与高级指令构建有效沟通 3. 角色扮演与系统提示赋予AI“灵魂”
AI为什么这么智能?他的智能又会进化到什么程度?他最有可能取代什么岗位,我们又能通过AI做什么?疑惑与焦虑时不时会笼罩在我们身边。
今天咱们从提示词(Prompt)这个主题入手,由浅入深拆解下大语言模型(LLM)到智能体的进化之路,你会发现其实AI的智能也是有迹可循。
提示词:LLM关联的语义理解
“大模型人工智能与人工智障可能只有一句话的差异”。一个精心设计的提示词可以使AI表现得更有知识、 更具创造力或更了解上下文,而一个糟糕的提示词则可能导致通用、错误或无意义的输出。
对于大模型这个黑箱来说,你可以把它当作一个函数,输入一段句子X,输出一段句子Y,只是实际上这个函数稍微复杂亿点点而已,比起我们学过的y=ax+b,大模型中类似a,b的参数量可以达到千亿级别。大模型在语义上的理解是出色的,这来源于大模型在训练时参考了大量符合人类语言习惯的语料,所以大模型在回答的时候,他会知道“吃”“苹果”两个词大概率是通顺的,但是“吃”“洗澡”两个字大概率是不能连在一起的,所以大模型的输出你几乎从语义上挑不出什么毛病,但是从任务的完成度上和正确性上,大模型就很有可能出现“一本正经地胡说八道”的“幻觉”。
提示词工程:从简单指令到复杂设定
清晰、具体和直接是最核心的三大原则。
“大约一个月前,据环球时报报道,美国科技公司OpenAI首席执行官萨姆·奥尔特曼近日在社交平台透露,由于用户使用“请”“谢谢”等礼貌用语与ChatGPT互动,导致公司每年需额外承担数千万美元的运营成本。”
1、“请直奔主题”是与大模型沟通的首要法则,“表达清晰”是确保模型理解无误的关键。一些客套话,如“请”、“谢谢你”反而可能对大模型造成干扰。直接陈述清晰直接的需求,例如将“请你提供一份关于气候变化的总结”改为“提供一份气候变化的总结”,效率会更高;
2、在提示词中明确“听众”也至关重要。比如,“向数据科学专家解释机器学习的概念”和“向高中生解释机器学习的概念”,模型会根据不同的听众调整其表述的深度和用词。
3、样本提示也是和大模型沟通的有效手段。提示词中包含少量(通常是1到几个)任务相关的输入输出示例或者不希望大模型输出的负面示例,以此来“启发”或“引导”模型理解任务的具体要求和期望的输出格式。例如,“帮我锐评一下xx事件,用段子搞笑风格输出,格式以“哎呀这个事情就有的说了”...为开头”。
高级指令,赋予模型灵魂和思考
当基础指令不足以驾驭大模型的强大潜能时,更高级的提示技巧便应运而生。这些技巧不仅关乎任务的完成,更在于赋予模型某种“角色性格”,甚至引导其进行类似人类的“逐步思考”。
1、角色扮演/系统提示。系统提示和角色扮演通过为大模型设定一个特定的身份或行为准则,来塑造其回应的风格、语气、专业性和焦点。例如,可以指示模型:“你是一位经验丰富的历史学家,请解释工业革命的意义。”。
2、思维链(Chain-of-Thought, CoT)。核心思想是鼓励模型在给出最终答案之前,先一步一步地阐述其“思考过程”。例如,面对一个数学应用题:“我有8个弹珠,给了朋友3个,然后又找到了4个。我现在有多少个弹珠?请逐步思考。”;此外,思维树 (Tree-of-Thought, ToT)是思维链一种更强大的变体。
角色扮演与思维链等高级提示技巧的结合,意味着我们正在从仅仅“生成文本”的工具,转向创造“可配置的认知代理”。提示词成为了在模型内部实例化特定认知能力或推理模式的手段,这为设计面向特定领域的AI辅助工具开辟了新的可能性。
扩大模型的能力:工具扩展
尽管高级提示技巧能够显著提升大模型的“思考”能力,但模型本身固有的知识截止日期和无法与外部实时环境交互的局限性,依然限制了其应用范围。为了突破这些瓶颈,“工具使用”的概念应运而生,其中“Function Calling”(函数调用)和“Model Context Protocol”(模型上下文协议,MCP)是关键的赋能技术。
1、Function Calling。 允许开发者在提示词中定义一些外部函数(API),并让AI大模型在理解用户意图后,判断是否需要以及如何调用这些函数来获取额外信息或执行特定操作。当用户提问之后,实际上的提示词肯能被这样扩充:
可用函数:{ "name": "getCurrentWeather", "description": "获取指定地点和日期的天气信息", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "城市名称,例如:北京" }, "date": { "type": "string", "description": "日期,例如:明天" } }, "required": ["location", "date"] }}已知当前有一个函数getCurrentWeather,输入地点和时间可以查询天气;根据用户意图,判断是否需要调用函数(function_call)。如果需要,请输出需要调用的函数名称和参数;用户提问'明天北京的天气怎么样?';
2、MCP。MCP是一个开放标准,旨在作为AI模型与外部数据、服务之间的一座桥梁,允许大模型以一种统一、安全的方式进行结构化的API调用。目前市面上的MCP工具已经突破上万个,是近期AI技术领域的大热门。MCP的开发需要遵循统一协议,从实现的角度上来说,每个MCP-server需要提供以下信息:
MCP-server支持的工具函数签名列表
每个工具函数的功能介绍
以github MCP server(最热的MCP server之一,https://github.com/github/github-mcp-server)为例,当用户问“帮我创建一个名为“test”的github项目”时,被扩充的提示词实际上可能是这样:
MCP(Model Context Protocol)是一个开放标准,旨在作为AI模型与外部数据、服务之间的一座桥梁,允许大模型以一种统一、安全的方式进行结构化的API调用;已知当前有一个名字为gitHub-mcp的MCP-server,有以下工具函数:{ "name":"create_repository", "description":"Create a new GitHub repository", "params":{ "name":"Repository name (string, required)", "description":"Repository description (string, optional)", "private": "Whether the repository is private (boolean, optional)" "autoInit": "Auto-initialize with README (boolean, optional)" }, ...//其他工具函数描述}根据用户意图,判断是否需要调用gitHub-mcp中的工具函数。如果需要,请输出需要调用的函数名称和参数;用户提问'帮我创建一个名为“test”的github项目';
所以,function_call和MCP的理解就是这么朴实无华:扩充提示词,告诉大模型我有一个工具箱,大模型负责进行语义理解,动态选择工具调用,并将调用的结果。
知识赋能:RAG 让AI“博览群书”
在上一篇推文“Agentic RAG”中,我们介绍了检索增强生成(Retrieval Augmented Generation, RAG) 技术,增强阶段的本质也是将检索到的知识块以文本的形式填充到提示词中:
已知信息: [这里插入从知识库检索到的报销政策片段A] [这里插入从知识库检索到的报销政策片段B] ... 用户问题:我们公司最新的报销政策是什么? 请根据已知信息回答用户问题。
到此为止,我们已经解锁并加深了对AI Agent中“Tool Use”原理的认识,并也大概知道一个类似于Manus的Agent是怎么被开发出来的了:LLM是Agent的大脑中枢,配合丰富的工具集,通过反复扩充提示词,LLM发挥语义理解的优势动态调用目标工具,结合工具的返回结果更加准确地完成目标任务。
迈向智能协作:A2A 智能体开启新范式
Agent-to-Agent (A2A) 协议则是可以让多个拥有不同专长和能力的AI Agents能够像人类团队一样协同工作,共同完成远超单个智能体能力范围的复杂任务。通过function_call、MCP、RAG在提示词中的应用,我们就不难理解,对于A2A的工作原理,大模型拿到的系统提示词大概率是这样的:
你是一个Agent,和用户交互,回答用户的各种问题,目前有其他sub-agent:sub_agent_A,{名字,主要功能, 有哪些配套的工具集,使用方式}sub_agent_B,{名字,主要功能,有哪些配套的工具集,使用方式}...回答问题时,你需要遵循以下规则:规则1:xxx规则2:xxx根据用户意图,判断选用哪些sub-agent完成特定任务...
github上有开发者开源了多家AI Agent/工具的系统提示词,包括Cursor、Manus、Trae等,链接:https://github.com/x1xhlol/system-prompts-and-models-of-ai-tools。我们也可以拿来学习参考,以Cursor agent的提示词为例:
警惕:提示词膨胀
提示词真的越来越丰富越好吗?复杂的提示词能带来更精确的控制,但也带来了新的挑战,例如MCP工具的数量越多,意味着消耗更长的文本描述,“提示词膨胀”显现:
成本增加: 提示词消耗更多的Token数量。
性能瓶颈: 增加模型的计算负担,影响性能。
维护困难: 复杂冗长,难以理解、调试和维护。
指令漂移: 大模型上下文有限,模型可能会“忘记”提示词开头,导致AI的输出偏离预期。
安全漏洞: 更容易受到“提示词注入”攻击,恶意用户通过构造特定的输入,诱导AI执行非预期操作。
应对策略:
提示词工程最佳实践:
简洁明了: 尽量用最少的词语清晰表达意图。
结构化: 使用分隔符、标签、列表等方式组织提示词,提高可读性和模型理解能力。
迭代优化: 通过不断测试和调整,找到最优的提示词表达。
负面提示: 明确告知AI不应该做什么,有时比只说该做什么更有效。
提示词压缩/精炼技术:研究和使用一些自动化的方法来缩短提示词,同时保持其核心语义。例如,使用更短的同义词,或者让一个模型去“总结”另一个模型的长提示词。
模块化与链式提示(Prompt Chaining):将复杂的任务分解为多个子任务,为每个子任务设计简洁的提示词,并将这些提示词串联起来。前一个模型的输出可以作为后一个模型的输入。这就像流水线作业,每个环节专注特定任务。
使用更高级的工具和框架:利用LangChain、LlamaIndex等框架,它们提供了更高级的抽象和工具来管理复杂的提示词逻辑、外部数据集成和智能体交互。
微调(Fine-tuning)模型:对于特定领域或高度重复的任务,可以考虑在通用大模型的基础上,用特定数据集进行微调。微调后的模型能更好地理解特定领域的指令,从而减少对冗长提示词的依赖。
持续监控与评估:定期评估提示词的效果和AI的输出质量,及时发现并修正问题。
总结
从最初的简单指令,到如今融合角色扮演、思维链、工具调用、知识检索乃至多智能体协作的复杂交互体系,提示词工程的发展历程,清晰地映照出人类与人工智能沟通方式的深刻变革。它不仅仅是一系列技巧的集合,更是一种新兴的、连接人类智慧与机器智能的“语言艺术”和“工程科学”。掌握并有效运用提示词,是充分释放大型语言模型潜能的关键所在。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-23
Claude 4 最新系统提示词
2025-05-22
NotebookLM 的系统提示词
2025-05-22
Replit Agent内部提示词、JSON工具配置详解,AI程序员一句话生成软件
2025-05-22
微软CPO专访:Prompt是AI时代的PRD,产品经理的工作方式已经彻底变了
2025-05-20
Agent 2.0:从提示词优化到工具自造的自我进化革命
2025-05-20
换模型就得重新优化提示词?用下MetaSPO,专门优化系统提示的Meta-Learning框架 | 最新
2025-05-20
Agent的设计模式之一:Prompt chaining
2025-05-19
Cursor劲敌Windsurf最新系统提示词
2024-08-20
2024-06-29
2023-06-08
2024-09-17
2024-06-27
2024-06-26
2024-07-09
2024-09-16
2024-07-12
2024-06-14
2025-05-17
2025-05-16
2025-05-09
2025-04-29
2025-04-27
2025-04-20
2025-04-16
2025-04-11