微信扫码
添加专属顾问
我要投稿
掌握LangChainGo提示词工程,精准控制大语言模型输出。 核心内容: 1. 提示词工程的定义及其在LangChainGo中的重要性 2. 提示词基础策略及高级技巧详解 3. LangChainGo中基础提示词的实现与示例
什么是提示词工程?
提示词工程是人与机器进行沟通的桥梁,更是用户引导AI精准执行任务的关键。
基础提示词(Basic Prompting)
在langchaingo中,最简单的提示词是一个字符串,我们可以直接将其传递给LLM进行推理:
import ( "context" "fmt" "log" "github.com/tmc/langchaingo/llms/ollama")func main() { llm, err := ollama.New(ollama.WithModel("qwen2:7b")) if err != nil { log.Fatal(err) } ctx := context.Background() prompt := "请用一句话描述go语言" res, err := llm.Call(ctx, prompt) if err != nil { log.Fatal(err) } fmt.Println("AI Answer : ", res)}解析
ollama.New:初始化Ollama LLM,使用WithModel方法传入对应的llama模型名称。
llm.Call(ctx, prompt):将提示词传递给LLM,获取AI生成的文本。
运行结果如下所示:
使用模板优化提示词(Prompt Templates)
在实际应用中,我们往往需要动态构建提示词。Prompt Template是一种高效的方式,用于快速生成根据模板定制的提示词。它适用于那些需要固定模型与动态内容相结合的场景。
例如:
package mainimport ( "context" "fmt" "log" "github.com/tmc/langchaingo/llms/ollama" "github.com/tmc/langchaingo/prompts")func main() { llm, err := ollama.New( ollama.WithModel("qwen2:7b"), ) if err != nil { log.Fatal(err) } ctx := context.Background() // 定义prompt template提示词模板 promptTemplate := prompts.NewPromptTemplate( "请使用一句话描述 {{.topic}}", []string{"topic"}, ) // 输出模板 fmt.Println(promptTemplate.Template) // 渲染模板 prompt, err := promptTemplate.Format(map[string]any{ "topic": "nim-lang这门语言", }) if err != nil { log.Fatal(err) } fmt.Println(prompt) res, err := llm.Call(ctx, prompt) if err != nil { log.Fatal(err) } fmt.Println(res)}解析
prompts.NewPromptTemplate():创建一个带有变量的提示词模板。
Format(map[string]string{"topic": "nim-lang这门语言"}):动态填充 topic 变量。
llm.Call(ctx, prompt):调用LLM生成回答。
运行结果如下所示:
除了上面的方法之外我们还可以使用ChatPromptTemplate,它提供了一种模拟对话流的方式,非常适合创建更加动态和互动性强的文本生成场景。
例子如下所示:
package mainimport ( "context" "fmt" "log" "github.com/tmc/langchaingo/llms/ollama" "github.com/tmc/langchaingo/prompts")func main() { llm, err := ollama.New(ollama.WithModel("qwen2:7b")) if err != nil { log.Fatal(err) } // 创建一个新的聊天提示模板 prompt := prompts.NewChatPromptTemplate([]prompts.MessageFormatter{ prompts.NewSystemMessagePromptTemplate("你是一个智能翻译助手", []string{}), prompts.NewHumanMessagePromptTemplate("将这段文本从{{.input}}翻译成{{.output}}:\n{{.question}}", []string{"input", "output", "question"}), }) val, err := prompt.FormatPrompt(map[string]any{ "input": "中文", "output": "英文", "question": "你好,世界", }) // 调用LLM ctx := context.Background() res, err := llm.Call(ctx, val.String()) if err != nil { log.Fatal(err) } fmt.Println(res)}解析
使用NewChatPromptTemplate创建对话模板,包含多个MessageFormatter。
NewSystemMessagePromptTemplate定义系统角色(如客服助手)。
NewHumanMessagePromptTemplate定义用户输入模板,{{.question}}等变量为占位符。
运行效果如下所示:
除了上述介绍的方式来创建提示词外,langchaingo还提供了其他方法来创建提示词,这里我就不一一介绍和演示了。
总结
langchaingo 提供了灵活的提示词工程工具,帮助我们优化LLM的输入,提高回答质量。合理利用这些技术,可以让LLM更精准地理解和执行任务,提升AI应用的可靠性!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-29
单agent落幕,双agent才能解决复杂问题!附LangGraph+Milvus实操
2025-12-28
为什么说LangGraph是企业级AI智能体的「终极答案」?
2025-12-26
跟我学LangChain:提示词模板,PromptTemplate包装器,工程化管理你的提示词
2025-12-24
别再堆 Prompt 了:用 LangChain 1.0 搭建“深度思考 Agent”
2025-12-21
文档审核Agent2.0系统落地方案:LangChain1.1+MinerU
2025-12-21
LangChain、Dify、n8n、Coze框架对比
2025-12-20
涌现观点|LangChain 2025 报告发布:57%的企业在用Agent,但32%的人被"质量"卡住了
2025-12-18
2025 LangChain智能体工程年度报告发布!AI智能体从画饼到吃饼
2025-11-03
2025-10-23
2025-11-06
2025-10-19
2025-10-31
2025-11-05
2025-10-23
2025-11-01
2025-12-21
2025-10-15
2025-11-03
2025-10-29
2025-07-14
2025-07-13
2025-07-05
2025-06-26
2025-06-13
2025-05-21