微信扫码
添加专属顾问
我要投稿
腾讯元宝AI搜索团队揭秘:大模型如何让传统搜索升级为智能助手,实现从信息检索到任务解决的跨越。 核心内容: 1. 大模型与搜索技术的互补关系及双向进化 2. 腾讯AI搜索在高考志愿等复杂场景的实践案例 3. 搜索架构升级面临的关键技术挑战与创新解法
一、搜索的前世今生
二、大模型和搜索的关系
大模型和搜索对彼此的影响
搜索这项诞生超 30 年的互联网“古典技术”,在 AI 时代仍旧是兵家必争之地。这是因为大模型与搜索能力有着互补、双向进化的紧密关联。
大模型需要搜索作为知识引擎,来补充实时与长尾知识、打破静态边界,链接垂直知识库、减少 “幻觉”;经过多轮调用深化推理,如今搜索已是大模型落地标配。而大模型则赋予搜索 “新大脑”,推动搜索从链接列表加人工筛选,升级为 AI 自动生成精准答案,更带动架构向生成式演进,实现算法全链路重构。
大模型和搜索结合的实践案例
基于混元 T1 模型,结合内部多生态检索增强与先进 Agent 架构,搭建的 AI 搜索已应用于腾讯元宝、QQ 浏览器等 700 多个内部产品场景,复杂需求下可启动多轮反思机制。
在复杂需求场景,构建 DeepSearch 服务,例如针对高考这类复杂场景,我们推出了 AI 高考通。以往搜索引擎难以满足志愿填报的个性化与完整性需求,而依托Agentic RAG 技术的 DeepSearch,能通过“规划-搜索-阅读-反思”循环,调用数十个专业工具,自动生成个性化报考方案并提供决策指引。
AI 高考通,能做到志愿分析报告准确率 95%+,并生成数百万份志愿表。
三、关键技术挑战
搜索技术架构跃迁
主要技术挑战和解法
Query Planning 通过拆解 query 和上下文补全,能够实现用户 prompt 到搜索 query 的规划。比如,当用户询问 “烟台大黑山岛,这个景点有什么特色?周边有哪些经济酒店?玩下来需要多少天”时,它可以将这个问题拆解为三个 query 来查询;而在上下文补全方面,当前序 prompt 是 “可以给我一些备跑北马的建议吗?”,新一轮 prompt 为 “每年什么时候举办?”时,planner 会自动将 query 改写补全为 “北京马拉松举办时间,北京马拉松日期安排” 等。
其算法实现采用两阶段的 LLM 改写机制:第一阶段根据标注数据进行 SFT 任务,结合先验知识学习意图拆解;第二阶段引入最终搜索后的效果反馈进行强化学习,使拆解后的检索结果更满足用户需求。同时,通过多轮并行训练提升了训练效率和多轮对话的理解能力,大幅提升搜索满意度。
为灵活接入外部优质 API,给元宝提供高质量高时效性输入,我们开发了插件系统。相当于在传统搜索中接入合作 CP 的结构化数据,核心目标不变,但能力上有关键不同:从静态数据接入到动态理解,执行机制从固定召回到多插件智能体协同,扩展从定制开发到即插即用,插件系统将数据从 “资源” 升级为 “智能体协作网络中的敏捷生产力”。
插件系统的整体方案包括:
插件召排,基于用户输入改写后的 query,以向量方式召回 k 个插件,再基于 rank 模型简化召回插件列表,输出 top n,保证召回率 100%;
外部知识引入,为 Function Calling 模型提供节假日等外部知识,提升槽位抽取精度,降低模型幻觉;
Function Calling,基于输入候选插件及外部知识,对用户改写 query 抽取出需要调用的 API 及槽位;
API 调用,将插件结果按照规则映射到 API 请求,获取 api 结果;
质量控制,部分插件偏向于检索,增加相关度过滤提升精度。
对于插件过多的难点(即全量插件占用 tokens 超过 1w,影响预测效果和推理速度),我们的解决方案是增加插件召排环节,为每个插件建立多个向量,选取与用户输入最高相关度进行排序,向量模型上对目前主流多个 emb 模型进行测试,平衡召回率及速度。
针对样本构建成本高的难点(即因为插件槽位复杂,需要大量样本覆盖),我们的解决方案是设计样本自动构建系统,产品基于设计的插件,给出几十个种子 prompt 或种子槽位结果,经双向泛化及质量控制环节,构建出约 20 倍的 FC 模型高精度训练样本。
Query planning 实现意图理解并转为检索系统适配的任务系列后,多目标排序环节需要找到解决这些任务的内容集合。
具体技术方法包含四个关键步骤:
1. Continued Pre-training(搜索持续预训练):采用多种任务形式的搜索语料持续训练,优化大模型的领域适配效果;
2. 大规模监督生成式学习:采用纯生成式方案进行大规模下游任务训练,并采用细粒度的打分 GenFR 对生成式模型进行约束;
3. 生成式模型蒸馏:对生成式 teacher ( 13B/30B/70B) 进行蒸馏,将能力迁移到尺寸相对较小的 LLM student (0.5B) 上以满足推理性能;
4. 多目标能力拟合:多目标排序时采用 4 个目标连续生成的方案,先后生成相关性、权威性、时效性、需求满足,最后多个目标加权得到最终得分。
这些环节对应了 AI 搜索从基础能力建设到线上落地的全流程。
当用户查询需要多轮交互才能解决的复杂问题,传统 RAG 的单次检索机制难免力不从心。要解决这个问题,得从两方面进行优化,一方面是从需求的复杂度维度出发,需要强化学习对多轮决策的优化;另一方面则是从结果的可靠性维度考虑,聚焦奖励机制设计、减少幻觉,从而得到更好的答案。
为此,我们在技术方案上增加了两个循环:
通过强化学习,让答案好坏影响排序,让排序结构影响 planing,实现端到端的效果优化。RL-Based Planner 利用检索排序效果反馈学习,query 拆解引入搜索满意信号,优化 subq 拆解,使 query 拆解任务下的搜索满意度提升;
RL-Based Retriever 利用 Answer 效果反馈学习,基于 LLM 对 Query / SearchDocs 的后验满意度信号、Answer 的正确性、Answer 中对 SearchDocs 的引用等信号计算 reward,通过 RL 对齐到 retrieval 阶段的 ranking 或者 embedding model。
搜索算法的加速演进将聚焦提升四项能力:
提升任务规划能力:从 Query Planning 升级到 Task Planning,更有逻辑地拆解任务,增强搜索和工具调用规划;
提升排序推理能力:利用强化学习增强基于 LLM 排序模型的推理能力,进一步提升排序效果;
提升复杂问题解决能力:增强模型规划搜索、阅读、反思、重新规划的能力,提升系统对复杂问题的解决能力;
提升总结鲁棒性:利用强化学习进一步提升模型的鲁棒性、多文档信息整合能力,使模型更擅长筛选时效内容、引用权威来源作答;同时实现多模态检索增强,更充分地利用图片、视频等内容补充信息。
五、效果收益
2025 年是大模型与联网搜索互促发展的元年。我们将腾讯内部的检索增强能力封装为搜索 API 对外服务。产品名称“联网搜索 API”,目前已服务 15 个高增长行业,支撑智能问答、自动驾驶、教育、办公、金融等 100 多个 AI 场景,助力企业提升效率与体验、实现 AI 时代战略升级。
2025 年上半年,随大模型技术普及,联网搜索 API 也迎来爆发趋势:客户数环比增 269%,搜索调用量同比飙升 315%,典型应用覆盖大模型、汽车、办公、电商、教育、金融等多领域场景。
腾讯"联网搜索 API"的推出,不仅降低了企业接入高质量搜索能力的门槛,更通过灵活的接口设计,满足不同行业的定制化需求。未来,腾讯将持续优化检索技术,拓展更多垂直场景,与合作伙伴共同推动 AI 生态的繁荣发展。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-09-02
初步调研|基于AI的自动化脚本自愈方案
2025-09-02
腾讯 ima 上新:1.11.0 AI播客音色优化和知识库导入网页链接
2025-09-02
阿里云 CIO 蒋林泉:AI 大模型时代,我们如何用 RIDE 实现 RaaS 的首次落地?
2025-09-02
有了这个大模型,真正的智能运维AIOps时代即将来临
2025-09-02
突破企业AI落地的瓶颈:LangGraph × OceanBase 的融合数据层深度实践与解析(附源码)
2025-09-02
今天,AI内容新规正式实施,这次不注意是真的会违法。
2025-09-01
OpenAI gpt-realtime 与 Realtime API 重磅升级,语音智能体迎来生产级时代
2025-09-01
Google的AI应用版图,我可以做到的最详细的版本
2025-08-21
2025-06-21
2025-08-21
2025-08-19
2025-06-07
2025-06-12
2025-06-19
2025-06-13
2025-07-29
2025-06-15
2025-09-02
2025-08-28
2025-08-28
2025-08-28
2025-08-28
2025-08-27
2025-08-26
2025-08-25