微信扫码
添加专属顾问
 
                        我要投稿
掌握LLM生成完美JSON格式输出的实用技巧。 核心内容: 1. LLM在生成特定格式输出中的应用与挑战 2. 通过调整概率分布约束LLM输出格式 3. 利用开源项目定义JSON语法规则的实际案例
 
                                如果你经常用LLM来完成一些任务,比如写代码、生成结构化数据或者调用API,你可能已经听说过类似json_mode或者“函数调用”这样的功能。这些功能其实解决了一个很核心的问题:让LLM生成的内容完全按照我们想要的格式输出。
硅基流动的API除了DeepSeek,其他模型全部都支持JSON格式返回,大家可以去试试。
我们都知道现在LLM生成内容的过程都是基于概率模型的,一步一步地生成每一个token。而每个token的选择其实是通过一个概率分布决定的,也就是说,下一个token是根据上下文“猜”出来的。
这个过程确实是非常灵活的,因为它允许LLM生成各种各样的文本。不过,这种灵活性也带来了一个问题:如果我们要的是某种特定格式的输出,比如JSON,那该怎么办呢?
除了直接让LLM自由生成外,我们也可以通过一些技术手段来约束它的行为。今天我们重点聊聊一种非常实用的技术——通过人为干预概率分布,强制LLM生成符合特定语法的内容。
也就是我们可以把那些不符合目标格式的token的概率设置为0,从而确保LLM在生成内容时不会偏离我们设定的规则。这种方法在实践中已经被广泛使用了,比如json_mode、结构化输出(structured output)以及函数调用(function calling)等。
GitHub上的开源项目llama.cpp,它就提供了一个名为grammars/json.gbnf的文件( https://github.com/ggml-org/llama.cpp/blob/master/grammars/json.gbnf ),专门用来定义JSON语法的规则。
root   ::= object
value  ::= object | array | string | number | ("true" | "false" | "null") ws
object ::=
"{" ws (
            string ":" ws value
    ("," ws string ":" ws value)*
  )? "}" ws
array  ::=
"[" ws (
            value
    ("," ws value)*
  )? "]" ws
string ::=
"\"" (
    [^"\\\x7F\x00-\x1F] |
    "\\" (["\\bfnrt] | "u" [0-9a-fA-F]{4}) # escapes
  )* "\"" ws
number ::= ("-"? ([0-9] | [1-9] [0-9]{0,15})) ("." [0-9]+)? ([eE] [-+]? [0-9] [1-9]{0,15})? ws
# Optional space: by convention, applied in this grammar after literal chars when allowed
ws ::= | "" | "\n" [ \t]{0,20}
通过这种方式,LLM在生成JSON格式的响应时,可以严格遵守这些语法规则,而不会出现任何偏差。
像 LangChain 这样提供 GBNF 支持的框架,也是通过 llama.cpp 实现的
或者你想用自己自定义的JSON结构的话,可以参考下面的写法:
from llama_cpp import Llama, LlamaGrammar
# Define your GBNF grammar
grammar_string = r"""
root ::= "{" pair ("," pair)* "}"
pair ::= string ":" list
list ::= "[" value ("," value)* "]"
value ::= string | number
string ::= "\"" [a-zA-Z0-9_]+ "\""
number ::= [0-9]+
"""
# Create a LlamaGrammar object
my_grammar = LlamaGrammar.from_string(grammar_string)
# Initialize Llama model
llm = Llama(model_path="C:/Users/sride/PycharmProjects/gbnf_implemen/llama-2-7b.Q4_K_S.gguf")
# Generate constrained output
prompt = "Give me list of fruits"
output = llm(prompt, max_tokens=100, temperature=0.7, grammar=my_grammar)
print(output['choices'][0]['text'])53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-31
有人问我会不会用 AI,我直接拿出这个 Ollama + FastGPT 项目给他看
2025-10-30
开源可信MCP,AICC机密计算新升级!
2025-10-30
OpenAI 开源了推理安全模型-gpt-oss-safeguard-120b 和 gpt-oss-safeguard-20b
2025-10-29
刚刚,OpenAI 再次开源!安全分类模型 gpt-oss-safeguard 准确率超越 GPT-5
2025-10-29
AI本地知识库+智能体系列:手把手教你本地部署 n8n,一键实现自动采集+智能处理!
2025-10-29
n8n如何调用最近爆火的deepseek OCR?
2025-10-29
OpenAI终于快要上市了,也直面了这23个灵魂拷问。
2025-10-29
保姆级教程:我用Coze干掉了最烦的周报
 
            2025-08-20
2025-09-07
2025-08-05
2025-08-20
2025-08-26
2025-08-22
2025-09-06
2025-08-06
2025-10-20
2025-08-22
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17
2025-09-09
2025-09-08
2025-09-07