免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


万字长文|大语言模型结构化输出(Structured Output)的技术原理和实现

发布日期:2025-10-15 09:26:27 浏览次数: 1550
作者:阿里云开发者

微信搜一搜,关注“阿里云开发者”

推荐语

阿里技术团队深度解析大语言模型结构化输出的六大技术路径,从提示词引导到强化学习优化,助你掌握AI与软件工程的无缝对接。

核心内容:
1. 结构化输出的核心价值与实现挑战
2. 六大核心技术路径演进与对比
3. 结构化输出在API交互等场景的实际应用

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

阿里妹导读


本文详细阐述了大语言模型(LLM)生成结构化输出的技术演进、核心方法与未来趋势。

传统上,大语言模型(LLMs)被设计用于生成自由格式的文本。这种输出虽然连贯且富有信息,但缺乏严格的结构,导致其难以被机器直接解析和利用。然而,随着LLMs应用场景的不断扩展,从撰写电子邮件到自动化复杂的业务流程,生成符合特定、预定义格式的响应变得至关重要。   

结构化输出指的是LLMs生成符合特定、预定义格式的响应的能力,而非仅仅是自由格式的文本。这种格式可以是JSON、XML、表格数据、填充模板或特定答案格式(如多选题、是非题)。结构化输出的核心优势在于其可机器读取性,这使得LLM的输出能够无缝集成到其他软件系统和数据库中。   

结构化输出能力是模型工程与传统软件工程的关键交互接口

零、引言:大语言模型结构化输出的范式演进

0.1 结构化输出的根本价值与挑战

大语言模型凭借其卓越的自然语言理解与生成能力,已在多个领域展现出变革性力量。然而,其早期的主要产出形式是无特定格式的自由文本,这在将模型集成到需要精确、一致数据的下游软件系统中时构成了核心挑战。这种自由形式的文本输出常常存在歧义,难以进行自动化解析,并且容易产生不符合事实或逻辑的“幻觉”(Hallucinations)及格式错误。   

结构化输出的根本价值在于解决了这一系列问题,通过强制模型响应遵循预定义的格式,如JSON、XML或Markdown,实现了输出的可预测性、一致性和机器可读性。这种技术范式上的根本性转变,使得LLM能够从一个仅供人机交互的“对话工具”进化为一个可靠、可信赖的“数据提供者”。它不仅简化了与数据库、API或其他软件系统的集成过程,减少了对复杂后处理逻辑的依赖,还通过限制模型生成意外或不相关数据,显著降低了“幻觉”的发生率。因此,在需要高度一致性和准确性的任务中,如API交互、数据库更新、数据提取和内容生成,结构化输出成为构建鲁棒、可扩展AI应用的关键。   

0.2 报告范围与方法论

本报告将沿着结构化输出技术从“软”到“硬”的演进路线,深入探讨六大核心技术路径:

  • 模式引导生成(Prompt-Guided Generation): 最基础的方法,通过精心设计的提示词进行软性引导。
  • 验证与修复框架(Validation and Repair Framework): 在生成后进行“事后”保障,确保输出合规。
  • 约束解码(Constrained Decoding): 从根本上限制模型生成过程,进行“事前”的硬性约束。
  • 监督式微调(Supervised Fine-Tuning, SFT): 通过数据集训练,使模型内化结构化输出的规则。
  • 强化学习优化(Reinforcement Learning Optimization): 采用奖励机制,突破SFT的性能瓶颈。
  • 接口化能力(API Capabilities): 将复杂技术抽象为简单易用的API功能。

一、模式引导生成

1.1 原理与实践:Prompt工程的艺术与科学

模式引导生成是实现结构化输出最直接、最广泛应用的方法。其核心原理是利用精心设计的提示词(Prompt),向模型提供明确的指令、具体的格式要求,甚至通过提供示例来引导模型生成符合预期结构的内容 。大语言模型本质上是基于概率的逐令牌(token-by-token)预测器。Prompt的作用是为模型提供一种“情境”,从而在海量可能的令牌序列中,将生成符合特定模式的序列的概率大大提高。这是一种通过“软约束”来影响模型行为的有效手段。   

请将以下信息转换为JSON格式:{text}
要求的JSON结构:{{    "title""标题",    "content""内容",    "tags": ["标签1""标签2"],    "metadata": {{        "created_at""创建时间",        "author""作者"    }}}}

在实践中,有多种最佳实践可以提升模式引导生成的成功率:

清晰的指令: 在Prompt中,使用明确的动作动词来指定期望的操作,并详细定义输出的格式和内容 。例如,明确要求“请返回一个包含 name、age和hobbies的JSON对象”,而不是模糊地要求“请介绍一下这个人”。这种精确的指令至关重要,它为模型设定了明确的生成目标。

少样本学习(Few-shot Learning):这种技术通过在提示中包含一个或多个符合期望格式的示例,让模型更好地理解任务 。模型通过这些示例学习到模式的细微之处,并泛化到新的输入上。这本质上是一种在推理时对模型进行“行为示范”的方法,能够显著提高输出的准确性和一致性。   

请将以下信息转换为JSON格式:{text}
要求的JSON结构:{{    "title""标题",    "content""内容",    "tags": ["标签1""标签2"],    "metadata": {{        "created_at""创建时间",        "author""作者"    }}}}
示例:输入文本:"特斯拉Model Y电动汽车售价45990美元,续航里程330英里,预计2024年2月交付"
输出JSON{    "company""特斯拉",    "product""Model Y",    "price""45990美元",    "range""330英里",    "delivery_date""2024年2月"}

超参数调优: 调整模型参数是优化输出质量的关键。例如,将temperature(温度)参数设置得较低(如0.1)可以减少模型生成响应的随机性,使其输出更具确定性与一致性。同时,合理设置max_tokens限制可以防止模型生成过长或不相关的文本,从而避免因生成过程中的意外截断而导致的格式错误。

1.2 局限性与非确定性分析

尽管Prompt引导生成是实现结构化输出的起点,但其内在的非确定性使其无法在需要100%可靠性的生产环境中独立使用。根据研究,单纯依赖Prompt工程的可靠性可能仅能达到约85.1% 

这种非确定性源于模型的本质。大语言模型基于概率预测下一个令牌,Prompt只是一个强烈的“建议”,而非一个硬性的“规则”。在生成长序列时,任何一个令牌预测的微小偏差都可能像多米诺骨牌一样导致整个输出结构失效。这种内在的概率不确定性是其根本局限。例如,模型可能会在响应中包含不必要的解释性文本(如“这是一个JSON对象:”),或者在生成复杂的嵌套结构时出现语法错误或提前截断,从而使得整个输出无法被解析。   

这种固有的不确定性正是驱动后续更高级、更可靠技术(如约束解码、强化学习和接口化能力)发展的根本原因。它表明,为了将LLM集成到对数据格式有严格要求的应用中,仅依赖Prompt是远远不够的,必须引入更强的控制机制。

二、验证与修复框架

鉴于模式引导生成的非确定性,验证与修复框架在模型生成响应之后对其进行验证和修复,构成了确保LLM结构化输出在生产环境中常用的工程化方法。

现代框架如guidance,Guardrails,通过结构化格式声明(如Pydantic或RAIL)和自动修复技术来处理LLM输出的不可靠性 。其核心机制如下:   

2.1 清晰定义结构

开发者首先使用Pydantic模型或JsonSchema等工具,详细定义期望的输出结构、字段类型、以及所需的验证规则和纠正措施。   

class UserProfile(BaseModel):    name: str = Field(validators=[ValidLength(min=2max=50)])    age: int = Field(validators=[ValidRange(min=0max=150)])    email: str    interests: list = Field(validators=[ValidLength(min=1max=10)])

2.2 自动验证与修复

模型生成输出后,守卫对象会根据预先定义的结构规范对输出进行自动验证。如果发现输出格式无效、字段缺失、或内容不符合要求,它将自动执行纠正措施。

guard = Guard().use(    DetectPII(pii_entities="pii", on_fail="fix"))
res = guard.validate("Hello, my name is John Doe and my email is john.doe@example.com")
print("Check if validated_output is valid text: ", res.validation_passed)print("Scrubbed text: ", res.validated_output)
Check if validated_output is valid text:  TrueScrubbed text:  Hello, my name is <PERSON> and my email is <EMAIL_ADDRESS>

2.3 Reask 技术

自动修复的核心技术之一是“Reask”(重新询问)。当模型生成不合规的响应时,框架会自动重新向模型发起请求,并附带明确的反馈,指出具体的错误之处,并要求模型进行修正。这个过程可以多次迭代,直到模型生成一个完全合规的、可解析的输出。   

这种框架通过将验证、纠正和迭代重试自动化,极大地提高了模型生成结构化输出的成功率和可靠性。Guardrails等工具提供了对多种LLM的API支持,使开发者能够轻松地将这一能力集成到现有工作流中,从而将LLM从一个不稳定的文本生成器,转变为一个能够提供可信赖、可解析数据的可靠组件。这种“事后”保障机制与“事前”的约束解码技术形成了互补,共同构筑了LLM结构化输出的稳固防线。   

guard = Guard().use(    DetectPII(pii_entities="pii", on_fail="reask"),)
res = guard(    messages=[{        "role""user",        "content""Make up a fake person and email address",    }],    model='gpt-4o-mini',    num_reasks=1)
print("Validated output: ", res.validated_output)print("Number of reasks: ", len(guard.history.last.iterations) - 1)
Validated output:  Sure! Here's a fictional person without any personal identifiable information:
**Name:** <PERSON>  **Email:** <EMAIL_ADDRESS>  
Feel free to use thisfor any creative purposes!Number of reasks:  1

三、约束解码

3.1 核心机制:在生成时强制约束

约束解码是一种比Prompt引导更强大的技术,它从根本上解决了模型的非确定性问题。与“事后”验证不同,约束解码在模型的生成过程中进行“事前”干预。其核心技术原理是在大语言模型生成每个令牌(Token)时,通过一个外部的、预定义的规则集或语法(如有限状态机,FSM)来动态地约束模型的输出空间。   

具体而言,当模型预测下一个令牌的概率分布时,约束解码算法会检查这个分布中哪些令牌是符合预设语法规则的。然后,它将输出空间限制在这些合规的令牌上,并从中选择概率最高的那个作为下一个生成的令牌。如果模型预测的最可能令牌不符合规则,它将从剩余的有效令牌中选择最佳候选项。这种机制从根本上保证了输出的语法正确性。例如,在生成JSON对象时,约束解码可以确保所有括号、引号和逗号都出现在正确的位置,从而保证最终输出是一个有效的、可解析的JSON字符串。

3.2 黑盒LLM的挑战与SketchGCD方案

约束解码的一大挑战是,其传统应用方式通常需要访问模型的下一令牌分布(即softmax logits)。这对于那些无法提供内部信息的黑盒商业LLM(如某些版本的GPT-4o)构成了限制。   

这种技术上的限制促使了新的解决方案的出现。例如,由Saibo Geng等人在ACL 2024年提出的“草图引导约束解码”(Sketch-Guided Constrained Decoding, SketchGCD)方案。该方法旨在解决无法访问logit的黑盒LLM的约束解码问题。其核心思想是,将黑盒LLM的无约束自由文本输出视为一个“草图”(Sketch),然后利用一个本地部署的辅助模型,根据预定义的规则对这个“草图”进行精炼和修正。这种方法通过将“事中”干预巧妙地转化为一种“事后”的局部修正,成功地在不访问黑盒模型内部机制的情况下实现了约束解码的效果。  

3.3 优势与应用场景

约束解码在确保高精度结构合规性方面具有独特优势。研究表明,该技术能显著提高逻辑解析任务中的语法正确性和语义准确性,甚至可以作为复杂任务中上下文示例的有效替代,对于资源受限的轻量级模型尤为有利。   

在约束解码技术的加持下,大模型在格式化生成领域,已经可以达到 100% 的准确度。

3.4 格式化输出对内容质量的劣化

研究观察到在格式受限的情况下,LLMs 的推理能力出现了显著下降。且格式限制越严格,推理任务中的性能下降通常越明显。

NL-to-Format 技术用来解决这一问题。首先指示 LLM 以自然语言回答问题,然后指示其将响应转换为目标格式模式。作为结构化生成中最宽松的方法,此方法将内容生成与格式遵循解耦,旨在保持无限制自然语言响应性能的同时,仍能提供结构化输出。

四、监督式微调(SFT)

4.1 SFT在结构化输出中的作用

监督式微调(SFT)是一种通过在特定任务或领域的高质量有标签数据集上进一步训练预训练模型,来调整其内部权重,使其永久性地学会生成特定模式输出的技术。这是一种深入的“行为编程”,它通过向模型提供大量正确的输入-输出配对示例,使其将结构化输出的规则内化到模型的参数中。   

与Prompt引导的根本区别在于,Prompt仅在推理时提供临时指导,而SFT则通过改变模型的权重来从根本上重塑其行为模式。这使得模型在面对类似任务时,能够更稳定、更可靠地直接生成符合预期的结构化输出,而不再依赖于对提示词的反复调优。SFT在文本分类、命名实体识别、问答和摘要等需要特定格式化输出的任务中表现出色。   

实践中通常通过 Lora(Low-Rank Adaptation of Large Language Models)实现大语言模型的低成本训练。

4.2 数据集构建与挑战

高质量的微调数据集是SFT成功的基石。构建数据集的关键步骤包括:

数据收集与准备: 收集与特定任务相关的有标签数据集,其中每个样本都包含一个输入(Prompt)及其对应的结构化输出(Completion)。例如,一个用于结构化数据提取的微调数据集,应包含非结构化文本与对应的JSON或XML格式的提取结果。

数据清洗与格式化: 对收集到的数据进行预处理,包括清洗、分词和格式化,以确保其与模型兼容。这一步至关重要,因为数据质量直接决定了模型微调后的性能。不一致、存在偏差或缺失值的数据可能导致模型学习到错误的模式。   

尽管SFT能够显著提升模型的结构化输出能力,但构建高质量数据集本身就面临巨大挑战,尤其是在涉及复杂逻辑和推理的领域。

4.3 “SFT高原”现象分析

在一些需要深度理解和复杂推理的任务(如Chart-to-Code生成)中,研究人员观察到一种被称为“SFT高原”(SFT Plateau)的现象。这一现象是指,即使在增加了大规模的有标签数据集之后,模型的性能提升也微乎其微。SFT在这些任务中显得力不从心,这表明它在某些复杂场景下存在固有的性能瓶颈。   

出现“SFT高原”的原因在于,SFT本质上是一种模式记忆和泛化。对于需要复杂推理、逻辑链或涉及组合爆炸的任务,仅仅依靠增加数据量是无法让模型掌握其内在逻辑的。模型可能会记住训练集中的特定模式,但无法将这些模式推广到全新的、未曾见过的复杂结构中。这种现象揭示了SFT在处理高度复杂、需要动态规划和逻辑推理的任务时的局限性。这一发现也为强化学习在结构化输出领域的应用提供了重要依据,因为它表明为了突破这一瓶颈,需要一种能提供更细粒度、更动态反馈的学习机制。   

五、强化学习优化

5.1 为什么RL能够突破SFT瓶颈

面对SFT在复杂任务中遇到的性能瓶颈(即“SFT高原”),强化学习(RL)提供了一种有效的解决方案。与SFT单纯依赖静态有标签数据不同,RL通过奖励机制(Reward Mechanism)对模型生成结构化输出的正确性进行细粒度、动态的反馈。RL允许模型通过试错来学习,即使某个输出不完美,只要它比之前的尝试更接近目标,就能获得正向奖励。这种机制能够有效地优化模型在复杂结构生成任务中的表现,从而突破SFT所无法企及的性能天花板 。   

5.2 Schema强化学习(SRL)框架详解

“Schema强化学习”(Schema Reinforcement Learning, SRL)框架是利用RL优化结构化输出的一个典型代表。该框架旨在通过集成一个细粒度的架构验证器,在训练过程中持续为模型提供结构化反馈。SRL框架通常包含以下三个核心阶段:   

采样(Sampling): 模型根据其当前策略(policy)为给定的架构生成多个候选响应。在这一阶段,可以应用“结构化思维”等概念,引导模型在生成前对输出的结构进行内部推理,从而提高生成质量。   

奖励(Rewarding): 每个生成的响应都会由架构验证器和奖励模型进行质量评估。奖励模型会根据一个“正确性比例”(correctness ratio)来分配奖励,该比例衡量了输出中符合架构要求的令牌数量。   

更新(Updating): 利用奖励阶段的反馈,对策略模型和奖励模型进行更新。研究通常采用近端策略优化(Proximal Policy Optimization, PPO)等算法来确保训练的稳定性和可靠性,避免剧烈的策略更新。

5.3 “结构化思维(Thoughts of Structure, ToS)”概念

在Schema强化学习框架中,一个独特的概念是“结构化思维”(Thoughts of Structure, ToS)。这一概念受到“思维链”(Chain-of-Thought, CoT)推理的启发,旨在鼓励模型在生成特定JSON字符串之前,对其输出结构进行更深层次的内部推理。ToS通过引导模型生成评论来概述其对JSON输出的推理过程,从而帮助其更好地理解和导航复杂的架构 。   

ToS的提出代表了一种将自然语言推理与编程逻辑相结合的前沿探索。它意味着我们不仅在教模型“如何做”(生成正确格式),更在教它“如何思考结构”(推理结构生成的逻辑)。这种方法从根本上解决了SFT在复杂推理任务中的泛化难题,并体现了结构化输出技术在处理复杂逻辑和数据表示方面的最高水平。研究表明,通过SRL方法训练的模型,其在复杂JSON字符串有效性方面的表现比传统SFT方法提高了高达16%。   

六、接口化能力:从JSON Mode到CFG生成

6.1 现代LLM API的变革

近年来,主流大语言模型提供商(如OpenAI、Grok等)已将结构化输出作为其核心API能力进行内化,标志着这项技术从一个“研究课题”或“工程挑战”演变为一个“商业化商品”。这项能力的演进大致经历了三个阶段:   

早期Prompt引导: 开发者需要在Prompt中手动编写复杂的指令来引导模型生成JSON格式。

JSON模式(JSON Mode): 2023年,OpenAI等平台推出了JSON Mode,通过一个简单的参数设置,强制模型只输出JSON格式。然而,这种模式无法保证输出遵循特定的架构(schema)。

完整结构化输出(Structured Outputs): 随着GPT-4o和Grok等新一代模型的发布,接口化能力得到了极大提升。开发者现在可以直接通过API调用,将Pydantic模型或JSON Schema作为参数传入,由模型保证返回的响应完全符合预定义的架构。这项能力将底层的约束解码等复杂技术抽象化,为开发者提供了端到端的类型安全(Type-safe)和一致性保障。

约束输出(Constraining outputs ):GPT-5 支持为自定义工具提供上下文无关文法(CFG),通过 Lark 文法来限制输出的语法或 DSL 格式。附加一个 CFG(例如 SQL 或 DSL 文法),可以确保助手生成的文本符合你的文法规则。这使得能够进行精确、受约束的工具调用或结构化响应,在 GPT-5 的函数调用中直接实施严格的语法或领域特定格式,从而提升对复杂或受限领域的控制性和可靠性。

from openai import OpenAI
client = OpenAI()
grammar = """start: exprexpr: term (SP ADD SP term)* -> add| termterm: factor (SP MUL SP factor)* -> mul| factorfactor: INTSP: ""ADD: "+"MUL: "*"%import common.INT"""
response = client.responses.create(    model="gpt-5",    input="Use the math_exp tool to add four plus four.",    tools=[        {            "type""custom",            "name""math_exp",            "description""Creates valid mathematical expressions",            "format": {                "type""grammar",                "syntax""lark",                "definition": grammar,            },        }    ])print(response.output)

6.2 核心特性与开发者体验

这种接口化的能力极大地降低了开发者实现结构化输出的门槛。它意味着开发者不再需要编写复杂的Prompt或构建事后验证框架,只需定义好数据模型,就能确保模型的输出是可解析、可信赖的。   

这一趋势的出现是市场需求的直接反映。企业级应用需要的是一个可靠的数据管道,而不是一个不可控的文本生成器。因此,LLM提供商将结构合规性作为一项核心竞争力进行内化,以满足客户对集成性和可靠性的严格要求 。这种转变使得LLM能够更无缝地集成到对数据格式有严格要求的应用中,如发票解析、实体提取和报告生成等。   

6.3 函数调用(Function Calling)与结构化输出

函数调用是与结构化输出紧密相关的一种高级接口能力。其核心机制是:模型在接收用户请求后,不再生成自由文本响应,而是根据用户的意图,生成一个包含函数名和参数的结构化JSON对象。例如,当用户说“帮我查一下旧金山的天气”,模型会生成一个JSON对象,其中包含"function_name": "get_weather"和"location": "San Francisco"。这个JSON对象可以被直接传递给外部工具或API来执行任务。函数调用将用户的自然语言意图精准地转化为可执行的结构化数据,实现了LLM与外部系统之间更精准、更可控的交互。   

七、综合评估框架与指标

7.1 结构化输出评估的特殊性

评估LLM结构化输出的质量需要一个专门的框架,因为传统的自然语言处理(NLP)指标,如BLEU或ROUGE,无法捕捉到其最核心的评估维度。一个结构化输出的首要且最重要的评估维度是其结构合规性。如果一个JSON响应在语法上是无效的,或者必填字段缺失,那么无论其内容多么准确,它在实际应用中都是完全无用的。因此,评估必须采用一种双层方法,首先进行硬性检查,只有通过了结构合规性验证,才能进入第二层的语义质量评估。   

7.2 多层次评估指标体系

一个全面的结构化输出评估框架通常包括以下两个层次的指标:

第一层:结构合规性指标

这一层是强制性的硬性检查,通常通过编写脚本或使用专门的库(如jsonschema)来实现自动化验证。

  • 格式有效性: 检查输出是否符合预期的格式(如JSON、XML)的语法规范。

  • 字段完整性: 验证所有必填字段是否都存在且没有缺失。

  • 类型正确性: 检查每个字段的值是否符合预定义的类型(如字符串、整数、布尔值、数组等)。

  • 架构一致性: 验证输出是否完全匹配预定义的完整架构(schema),包括嵌套结构和条件约束。

第二层:语义准确性与实用性指标

在通过第一层检查后,对输出内容的质量进行评估。

  • 以LLM作为评判者(LLM-as-a-Judge):这种方法利用一个强大的LLM来评估输出内容的质量、相关性和事实准确性。这对于需要细致理解的任务(如概括或逻辑推理)尤为有效。   

Struct Eval 和 json mode eval 都是实践上常使用的评测集,对结构合理性和语义准确性进行评测和标注。

八、高德大模型应用平台的实现

高德大模型应用平台 提供开箱即用的结构化输出能力,能够直接生成稳定、可靠的格式化数据,帮你省去繁琐的Prompt调优和数据后处理工作,大幅提升开发效率,在数据抽取等高频场景有广泛应用。

九、结论与展望

9.1 核心技术对比与应用建议

当前,大语言模型结构化输出的技术生态已日趋成熟,从最初依赖于开发者经验的Prompt引导,发展到由模型原生支持的硬性接口化能力。每种技术路径都有其独特的优势和局限性,适用于不同的应用场景和成本考量。下表对本报告中讨论的核心技术进行了综合比较,以期为读者在技术选型时提供决策参考。

9.2 总结与未来趋势展望

当前大语言模型的结构化输出技术已从最初的“事后”人工干预(Prompt引导和验证),发展到“事前”的硬性约束(约束解码),再到“事中”的接口化和“动态学习”(强化学习)。这一演进路径清晰地反映了行业对LLM输出可控性、可靠性及可集成性的不懈追求。

展望未来,LLM结构化输出技术将朝着以下几个方向发展:

多模态结构化生成: 未来的LLM将不仅能从文本中提取结构化数据,还能从图像、音频和视频等多模态输入中,生成符合复杂模式的结构化输出,例如从医学影像中提取病灶结构化报告。

自适应解码策略: 研究将探索更智能的解码策略,使其能够根据具体任务动态选择最佳的约束或引导方法,甚至在不同任务子步骤间无缝切换,以平衡生成质量与计算效率。

SFT与RL的深度融合: 未来的模型训练将更紧密地集成SFT和RL,首先通过SFT为模型提供基础能力,然后利用RL进行精细化调整以解决复杂推理问题,从而兼顾模型的通用能力和任务特异性。

总之,LLM结构化输出已成为构建可靠、可扩展AI应用的核心基石。随着技术的不断演进,LLM将从一个强大的文本生成工具,彻底转型为能够无缝融入各种自动化工作流、产生可信赖结构化数据的智能基础设施。

参考文献和资料

  • Mitigate Gen AI risks with Guardrails:https://github.com/guardrails-ai/guardrails
  • Guiding LLMs The Right Way: Fast, Non-Invasive Constrained Generation:https://arxiv.org/html/2403.06988v1
  • Let Me Speak Freely? A Study on the Impact of Format Restrictions on Performance of Large Language Models:https://arxiv.org/abs/2408.02442
  • XGrammar: Flexible and Efficient Structured Generation Engine for Large Language Models:https://arxiv.org/abs/2411.15100
  • StructEval: Deepen and Broaden Large Language Model Assessment via Structured Evaluation:https://arxiv.org/abs/2408.03281
  • RATT: A Thought Structure for Coherent and Correct LLM Reasoning:https://arxiv.org/abs/2406.02746
  • Learning to Generate Structured Output with Schema Reinforcement Learning:https://arxiv.org/abs/2502.18878
  • LoRA: Low-Rank Adaptation of Large Language Models:https://arxiv.org/abs/2106.09685
  • Sketch-Guided Constrained Decoding for Boosting Blackbox Large Language Models without Logit Access:https://arxiv.org/abs/2401.09967

AI 智能陪练,学习与培训的新体验


AI 陪练,作为智能化的专属训练伙伴,能够提供实时反馈与精准指导,助力用户高效提升技能。本方案以英语口语教学和企业内部培训为应用场景,依托大模型技术,通过模拟真实对话场景,支持文本及语音交互,实现个性化学习与即时反馈,为用户打造沉浸式的学习体验。


点击阅读原文查看详情。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询