微信扫码
添加专属顾问
我要投稿
探索债市研究新境界,智能体与多Agent协作技术深度解析。核心内容:1. 大语言模型在固收量化研究中的应用及其优化策略2. 多Agent协同智能体系统的构建与运作机制3. RAG技术结合本地知识库提升模型准确性与可信度
如果您希望第一时间收到推送,别忘了加“星标”!
核心观点
核心观点
大语言模型(LLM)的出现为二级市场投研工作带来了更大的拓展空间。但简单的“提问+聊天互动”还远远无法满足复杂的工作需求,如何更好地使用大模型正在成为更值得研究的问题。优化提示词(Prompt)是引导大模型生成高质量内容的基础,我们建议使用思维链和完整框架进行强化。而后,还可以继续对大模型进行三项“升级改造”:1、搭建智能体系统,使用多个Agent协同,分步分环节完成复杂任务,类似Manus等;2、使用知识库+RAG,通过结合信息检索与生成模型,提升大语言模型回答的准确性与可信度;3、使用Socratic-Prompt与Self-Check削弱模型幻觉。
大模型提示词(Prompt)的原理、方法与设计框架
大模型的提示词(Prompt)就是经过人为思考后给出更有“含金量”的上下文,目的就是引导大模型生成高质量内容,众多研究者将此称为Prompt Engineering。Prompt对大语言模型引导的底层机制可以归纳为三个:激活相关参数、调整概率分布和减少歧义或不可靠输出。由此延伸,一个完整的Prompt一般有四个核心要素:1、指示(Instructions),告诉模型需要执行的具体操作;2、上下文(Context),譬如相关背景信息,帮助模型理解任务;3、示例(Examples);4、输出(Output),应清晰描述期望大模型输出的格式。实践中已涌现出许多有效框架,典型如RAPPEL等。
进阶1.0:搭建多 Agent协同的智能体系统
主观研究作为多环节、多任务且需反复迭代的复杂工程,单Prompt通常难以胜任。实战中需构建多Agent协作系统,模拟人类团队的协作模式,各智能体承担不同角色:Leader统筹全局,Researcher负责细分领域研究,还可设置风格润色、逻辑校验等专项模块。该系统一般需要包含三个核心模块:1)任务分配机制,通过差异化Prompt明确各Agent职责;2)信息共享通道,确保数据与结果的实时交互;3)反馈优化回路,通过循环迭代持续优化输出质量。这种协作模式既能保持系统弹性,又能实现研究深度与广度的平衡。各模块配套Prompt可参考我们提供的样例。
进阶2.0:RAG技术与本地知识库
RAG(检索增强生成)通过结合信息检索与生成模型,提升大语言模型回答的准确性与可信度。使用RAG构建本地知识库需四步:1、清洗并分块领域文档;2、通过Embedding模型将文本向量化,存储至向量数据库;3、根据用户提问检索相似文本块;4、将检索结果与问题合并为增强提示,驱动LLM生成基于事实的答案。集成多Agent系统时,可设计“检索Agent”负责与知识库交互,或为每个Agent嵌入RAG,使其在任务中自动检索权威资料,提升决策可靠性。在实践中,我们优先推荐lightRAG等轻量化框架作为主要工具,降低部署门槛,有利于实现快速集成。
进阶3.0:使用Socratic-Prompt与Self-Check削弱模型幻觉
大模型幻觉的根源在于其底层是基于文本模式预测的统计模型,缺乏事实校验机制。因此当面对知识盲区或未明确约束的推理任务时,大模型会“填补空白”甚至编造信息,导致输出虚假但看似合理的答案。普通Prompt缺乏推理引导和自我检查环节,使模型倾向于跳过逻辑推演,直接生成表面连贯却错误的回答。有两种方法可以有效缓解大模型的幻觉:1、苏格拉底提示(Socratic Prompting)。通过提问-回答循环引导模型逐步拆解问题、反思假设,强化推理深度;2、自我检查(Self-Check)。让模型在生成初稿后进行二次验证,核对事实矛盾、逻辑漏洞并修正错误。
风险提示:模型接收信息不及时;智能体协作传导不畅;数据安全问题。
前言:什么是Prompt Engineering(提示词工程)?
大语言模型(LLM)的出现为二级市场投研工作带来了更高的效率。对二级市场投研工作者而言,大模型首先是作为“超级助手”存在,通过“类人推理”、多任务处理和聚焦私有知识库等手段,减少了很多低级和重复性的劳动;其次,它还可以扮演“数据侦探”的角色,为投资者找到更多微观信息,而且其学习与处理问题的速度很快,节省时间本身就是一种价值。
但大模型的作用远不止于它本身!如何更好的使用大模型可能是更值得研究的问题。我们对大模型最简单的理解就是“提问+聊天互动”,以此替代传统的搜索引擎。当然,稍加扩展还可以进行翻译外文、总结提炼、助写文字等工作,但这都仍只浮于大模型应用的表层。因为在真实世界中,有很多人类工作非常复杂、甚至可能都难以描述,比如:
1)对宏观政策、经济增长路径的分析,即便是人也很容易输出“泛泛而谈”的内容;
2)股票基本面分析,尤其是上市时间不长、公开信息不多的公司,往往不知从何下手;
3)量化投资中的多因子挖掘,一般需要因子设计、回测、优化等几个工程顺次完成;
4)在生活中,还有心理调节或医学诊断等问题,显然也不是能一次性完成的任务……
那么如何完成这些相对复杂的人类工作?众多实践派高手和学者总结了大量的Prompt(提示词),并汇聚成对Prompt Engineering(提示词工程)的研究。本质上,提示词(Prompt)就是经过逻辑思考后给出更有“含金量”的上下文而非简单的问答,让AI“听懂”并“执行”复杂任务,同时控制输出的质量与方向。好的Prompt的作用有三点:
1、尽可能避免了“Garbage in,Garbage out”的问题,也就是优化了模型的输入;
2、从底层启发了大模型的“思维链”,激活了一些大模型的隐藏性能、优化输出;
3、一定程度上能控制幻觉问题。
一个好的Prompt堪比大量训练数据。而OpenAI的官方博客(官网,OpenAI News)也在2020年GPT-3刚发布时作过一个非常形象的比喻,那就是“Prompt的意义就是,给外星人讲地球上的故事”:
“Designing your prompt is essentially how you ‘program’ GPT-3. Because GPT-3 doesn't have the context of the world in the same way a human does, you need to provide it context in the prompt. Think of it as giving instructions to an alien who's smart but doesn't know about Earth or our customs.”(“设计提示词(Prompt),本质上就是你对 AI 进行“编程”的过程。但由于AI并不像人类那样天然拥有对世界的理解和认知,因此需要你有意识地在对话中清楚地提供必要的上下文信息。想象一下,这就好比你在向一名智力超群但并不了解地球人生活的外星人下达命令。”)
更直观的是,针对同一个问题,大模型在不同Prompt引导下“观感”差异悬殊:
Prompt①:“请用一段话概括:2025年春节之后中国10年期国债收益率走势。”
Ans①(Kimi-1.5长思考):
2025年春节之后,中国10年期国债收益率整体呈现震荡下行的走势。在3月中旬,10年期国债活跃券收益率一度触及1.90%的高点,随后在央行公开市场连续三日净投放呵护资金面以及权益市场调整等因素作用下,收益率从年内高点回落。从全年来看,多数机构预计10年期国债收益率会在1.6%至2.0%的区间内波动,并且整体呈现下行趋势。
Prompt②:“请用一段话概括:2025年春节之后中国10年期国债收益率走势,并至少给出三点启示。”
Ans②(Kimi-1.5长思考):
2025年春节之后,中国10年期国债收益率整体呈现震荡下行的走势。在3月中旬,10年期国债活跃券收益率一度触及1.90%的高点,随后在央行公开市场连续三日净投放呵护资金面以及权益市场调整等因素作用下,收益率从年内高点回落。从全年来看,多数机构预计10年期国债收益率会在1.6%至2.0%的区间内波动,并且整体呈现下行趋势。以下是三点启示:
1、货币政策与市场预期的博弈:春节后国债收益率的波动表明市场对货币政策的预期变化非常敏感。央行的操作和市场预期之间的博弈直接影响了债券市场的走势。投资者需要密切关注央行的政策信号和资金面的变化,以便及时调整投资策略。
2、经济基本面的支撑作用:尽管收益率整体下行,但经济基本面的修复预期对债市形成了一定的支撑。随着经济数据的逐步公布和政策效果的显现,市场对经济复苏的预期可能会进一步影响债券市场的走势。因此,投资者需要综合考虑经济基本面因素,合理评估债市的投资机会和风险。
3、资产配置的多元化需求:在债券市场波动加大的背景下,投资者应更加注重资产配置的多元化。除了传统的利率债,还可以适当配置信用债、可转债等不同类型的债券资产,以分散风险并提高整体投资组合的稳定性。同时,结合权益市场和其他资产类别的表现,进行动态调整和优化配置。
Prompt③:请用一段话概括:2025年春节之后中国10年期国债收益率走势,并至少给出三点启示,在语言风格上尽量诙谐有趣。
Ans③(Kimi-1.5长思考):
2025年春节后,中国10年期国债收益率走势就像坐过山车,从1.6%-1.7%的低位快速反弹,一度冲到1.922%,随后又有所回落,最终在3月25日收盘时回到1.81%附近。这种震荡上行的走势,反映了市场对经济复苏和货币政策的复杂预期。以下是三点启示:
1、央妈很关键。国债收益率的波动,很大程度上取决于央行的货币政策。春节后,市场对降息降准的预期落空,导致收益率上行。这提醒我们,投资债市时,一定要紧盯央妈的动向,她的每一个操作都可能影响你的钱包。
2、经济复苏的“拉锯战”。国债收益率的走势也反映了经济基本面的变化。虽然整体呈现复苏态势,但过程中充满波折。投资者需要关注经济数据的发布,把握经济复苏的节奏,以便在债市中找到合适的入场和离场时机。
3、“别把鸡蛋放在一个篮子里”。债券市场的波动加剧,说明单一资产的风险在增加。聪明的投资者会将资金分散到不同类型的债券,比如短期债、信用债、可转债等,甚至跨市场配置,以降低风险,提高收益的稳定性。
这种由不断深化的Prompt引导的大模型内容增强,在学术上被称为“知识涌现”现象,是纯机器学习走向通用人工智能的必经之路。而对我们来说,则意味着固收研究的价值链很可能被重塑,可以预见到的几个变化是:
第一、基础数据等整理不再会耗费大量时间,取而代之的是对复杂策略的尝试与思考;
第二、人类研究员的核心价值变成 “Deep Sight”,主要工作更多是设计“元指令”;
第三、极大地冲击现有常识,譬如改变原本是基于人类行为建立的“理性人假设”。
总之,研究Prompt Engineering的目的只有一个——生成高质量内容。
原理:提示词是如何对大模型进行引导的?
理论上,想要让大模型生成“超预期”的高质量内容有三种办法:模型微调、Prompt引导、外部内容嵌入。对这三种方法简单打比方就是:1、Prompt相当于领导用更具体、更细致的表述给员工布置复杂任务(强化输入+引导),能否完成好要看员工的经验和能力(大模型性能);2、知识库嵌入则相当于提供了操作指南(定向信息),让员工可以边查阅边工作(实时检索);3、微调就类似入职前培训,让员工在非工作环境中提前熟悉操作。对大多数人来说,写好提示词并形成自有模板是最省力、投入产出比最高的选择。
好的提示词引导大模型产生高质量内容的原理是什么?
首先,大型语言模型的底层机制是基于概率的文本续写。大语言模型的背后是以Transformer为核心架构的神经网络,它会根据提示词(你的提问)来预测最可能的后续词语序列(应该怎么回答问题)。更直白的讲,我们通过Prompt提供了语境和模式,大模型会在这基础上“续写”答案;
其次,提示词还会决定输出格式与风格。Prompt不仅会引导模型续写内容,还会影响回答的形式。从底层来看,大模型是通过计算Q-K-V三个向量的点积,找到注意力权重最高的内容并予以输出。Q是Prompt,K是大模型的检索词,V则是输出语料。很显然,不同的Prompt会导致大模型检索不同的内容,也就导致输出不同。
从本质上说,Prompt是与大模型交互时隐式编程的手段,我们相当于用语言对它进行“调参”。我们并非直接修改模型,而是通过输入设计来影响模型的输出倾向,而它的输出内容是从海量语料中学到语言模式,因此只要“说的够细”,大模型几乎是100%会达到要求。但是,对于市场研究而言,“说的够细”本身就很难,这往往需要我们把问题分解成更清晰的数十个小点,而这也是我们在探索中需要付出的努力。
总结一下,Prompt对大语言模型引导的底层机制可以归纳为以下几个方面:
一是激活相关参数。Prompt中的关键词和上下文信息能够激活模型中与之相关的参数,引导模型在生成文本时更倾向于使用这些参数,从而生成符合用户需求的输出。通俗来讲,就是一个“好老师”会更容易启发学生的“灵感”;
二是调整概率分布。模型在生成文本时,会根据上下文信息调整下一个词(token)的概率分布。由于精心设计过的Prompt提供了丰富的上下文信息,理论上模型就能够得到更合理的输出概率表、从而更准确地预测下一个词。在这个过程中,Prompt就好比一个“航海图”,模型好比“船只”,所以有航海图的船只就更容易避开暗礁和漩涡(不合理的输出);
三是减少歧义和不可靠输出。通过提供明确的指示和上下文信息,Prompt能够减少任务描述中的歧义,帮助模型更准确地理解任务要求,避免生成不符合预期的结果。这就好比最初的指南针(简单的提问型Prompt)与现代的GPS(精心设计过包含全要素的Prompt)对模型的引导作用当然是天壤之别。
方法:上下文学习、思维链与设计框架
设计Prompt的方法本质上就是强化上下文学习(In-Context Learning)。上下文学习是大模型的一种重要能力,它允许模型通过上下文信息来理解任务并生成相应的输出。具体来说,上下文学习可以分为三种:
1、Zero-shot Learning(不给模型任何样例):仅通过自然语言指令来指导模型完成任务。这种方法的优点是灵活性极高,但模型可能无法准确地把握任务的细微差别或特定要求;
2、Few-shot Learning(给模型多个任务示例):模型通过这些示例来更好地理解任务并生成输出。由于模型首先看到的是好的例子,它可以更好地理解人类的意图和需要什么类型的答案的标准,因此Few-shot学习往往比Zero-shot学习有更好的性能。
而上下文学习能力的背后是思维链(Chain-of-Thought)机制。思维链是一种改进的提示技术,旨在提升大模型在复杂推理任务上的表现。它要求模型在输出最终答案之前,先展示一系列有逻辑关系的思考步骤或想法,这些步骤相互连接,形成了一个完整的思考过程,也就是我们常说的“推理”。不过,基础的思维链早已被大模型的工程师封装在模型底层,不需要我们再去启发。其中一类是Zero-Shot CoT,适用于数学等问题,本质上就是增加了“请分步推理”的引导词,另一类则是Few-Shot CoT,是通过连环问题来引导大模型自己设计解决方案。不过,这些技术都是预训练中的范畴,我们不需要过多了解。
综合上述原理,一个完整的大模型Prompt通常包括以下几个核心要素:
✔指示(Instructions):明确的任务描述,告诉模型需要执行的具体操作,相当于给模型下达的命令,是任务执行的基础。
✔上下文(Context):与任务相关的背景信息,帮助模型理解任务所处的环境或情境,尤其在多轮交互中,上下文提供了对话的连贯性和历史信息。而在这个框架之下,衍生出了非常非常多的实践成果,比如RAPPEL 框架。该框架分为六个部分,需要依次连结(使用Markdown格式或用“--”和“##”标明):
●预交互
■Role(角色)。明确告诉模型它在任务中的角色,通过设定角色,模型可以更好地理解任务背景,激活相关知识。
■Action(操作)。清晰地定义任务,告诉模型需要完成的具体工作,帮助它明确任务目标,避免模糊或不相关的输出。
■Prime(预热)。通过提问或引导,验证模型对主题的了解程度,确保模型具备相关知识,同时减少用户需要提供的背景信息。
●正式交互
■Prompt(提示)。在验证模型知识后,构建一个详细的提示,用于执行任务,通过清晰的提示,确保模型输出符合预期。
●反馈与优化
■Evaluate(评估)。评估模型的输出结果,判断是否符合预期,通过评估,发现模型输出的不足之处,并进行优化。
■Learn(学习)。在任务完成后,让模型总结经验,构建一个可以重复使用的提示,提高效率,减少未来类似任务的重复劳动。
除此之外,还有BROKE框架、CHAT框架、CRISPE框架、CARE框架等引导词设计框架,由于它们在思路上大同小异,因此我们在此不再赘述。
而固收研究属于二级市场研究领域,还不能简单参照现有的Prompt框架,需要根据实战进行更具体的设计。我们认为,要做出适应固收研究的通用Prompt还需要注意以下细节:
1、角色主要以“债券基金经理”、“权益研究员”、“资产配置研究员”等为主;
2、绝大多数目标可归为解读新闻、概念阐述和信息总结,语言风格应以“科普文”或“商业研究报告”两种为主;
3、强调可解释性和归因,需要提示大模型依据逻辑框架“三段论”、“图尔敏法则”等,并给出“理论依据”;
4、主观明确历史比较的时点,比如“参考2015年A股牛市经验”、“2020年前后的风格切换”、“2013年钱荒”;
5、示例或输出格式应提前详细写好,例如“债券分析的五方面……”、“转债四大回报驱动力……”、“股市三因素:流动性、盈利和风险偏好。……”等,这点对于启发大模型思考非常必要;
6、反馈与限定,加入类似“请保证结论100%有依据”、“请帮我总结本次分析信用事件冲击的框架,并帮我优化为一个常用的Prompt模板”。
此外,在设计Prompt时,我们强烈推荐使用类似“##”作为Prompt的标识和分隔符。这虽然不是绝对必要,但有明确的必要性和优势:1、清晰的结构具有较好的可读性,这在哪里都不会有错。而且分隔符可以明确模块边界、有效避免提示词冲突,减少模型误读指令的概率;2、结构化提示词符合模型的训练逻辑(IT工程师们投喂的数据+模型语料库也都是结构化的),因此大语言模型对结构化输入更敏感;3、有利于团队协作,减少格式混乱导致的沟通成本。
进阶1.0:搭建多 Agent协同的智能体系统
在前文中,我们已努力将单个Prompt的原理和设计逻辑充分阐述。但这对实战研究仍有一定距离。归根结底,是因为主观研究是一项多环节、多任务、多限定的工程,往往还需要不断地“反刍”(想象领导或客户让你反复修改材料或验证观点)。所以研究一个问题,本身就不是一个Prompt或一个大模型智能体可以单独完成的工作。实践中,比较合理的解决方案就是创造一个工作流,采用多Agent(智能体)协作。
多Agent系统:什么是Agent协同?
什么是Agent协同?就是设计多个大模型串联或并联工作。这非常容易理解,类似一个人类的团队,包括几人到几十人不等。每个人都有明确且合理的分工,定位当然也不同,比如Leader总领全局工作,把握研究观点或对文章,Researcher负责每个部分的写作(股市、利率、信用债等),再复杂一点可以设置“文字风格润色”、“逻辑检查”和“质量与观点控制”等环节。当然,更前沿的是再加一层本地RAG检索增强,进一步提升输出内容的满意度。
如何设计一个可以实战的多Agent系统?
如何设计多智能体系统(Agent协同)?理论上至少要有任务分配、信息共享和反馈机制三个模块:1、最核心的是任务分配,让每个Agent分别读取对应的Prompt,处理不同的任务;2、保证信息共享。各个Agent之间需要有一个信息共享和沟通的机制,这样它们可以根据需要相互提供数据和结果;3、建立反馈机制,循环反馈能够推动各个Agent反复优化自己的输出,并促使整个系统不断进化,提升长期的表现和稳定性。
落到实践中,我们以“点评一则债市热点”为例,给读者一套具体方案:
●输入问题:
请针对该事件点评:中国人民银行决定:自2024年9月27日起,下调金融机构存款准备金率0.5个百分点(不含已执行5%存款准备金率的金融机构)。本次下调后,金融机构加权平均存款准备金率约为6.6%。
●任务分解:
- 以事件点评为例,Agent1_Director(总控)将任务拆分为:
- Agent2_Researcher:用一段话描述本次事件,限定为100字。参考历史(联网搜索)和样例(研究员保存的大量类似点评);
- Agent3_Researcher:分析事件发生的来龙去脉、找出与前后因果,限定为500字以内,需要使用特定Prompt;
- Agent4_Researcher:分析事件对债市/股市的影响,尤其是对后市的推演,限定为500字以内,需要进行较多轮的语言风格及逻辑核验;
- Agent5_Researcher:思辨性模块,提出事件对市场有哪些启示?建议用本地RAG进行强化;
- Agent6_Researcher:给出操作建议,限定为300字以内,语言风格较为重要;
- 根据任务适度增加其他Agent……
●子系统
- Agent7_LogicChecker:使用特定Prompt进行逻辑核验,比如金字塔原理、三段论、图尔敏论证法则等;
- Agent8_StyleModifier:使用特定Prompt进行语言风格的润色与修改,核心是:1)总结样例的语言风格;2)比对已生成文字与预期语言风格的差异;3)修改;
- Agent9_QualityController:对生成内容进行打分或评级,直到满足目标要求,如85分以上或5星评价;
- Agent10_WordsPilot:用户手动输入要点,引导大模型严格遵守这些要点并扩展;
- Agent11_ReferenceProvider:解析用户提供的PDF、新闻来源、图片等信息。
- Agent12_OnlineSearcher:增强型搜索,根据用户提供的参考源进一步扩大信息池;
●执行过程(第一轮):
- Agent1拆分任务,分发给Agent2~5;
- Agent2~5分别独立进行写作,其中对3、4、5使用Agent7进行3次逻辑查验,对1和6使用Agent8进行语言风格润色;
- 由Agent1收集并拼接初稿内容,依次由Agent7、Agent8进行修改;
- 由Agent9对内容进行第一次打分,若未通过则进行第二轮
●执行过程(第二轮):
- Agent9将内容与评价返回给Agent1,生成修改大纲,再拆分任务分派给Agent2~5;
- 再次由Agent2~5分别独立进行写作,其中对3、4、5使用Agent7进行3次逻辑查验,对1和6使用Agent8进行语言风格润色;
- 仍由Agent1收集并拼接初稿内容,依次由Agent7、Agent8进行修改;
- 仍由Agent9对内容进行打分,若未通过则进行下一轮。
●若内容通过,则生成报告并交付用户。
案例:几个关键子系统所需的Prompt
在此,我们分享几个有效且实用的Prompt,供读者参考(均为Markdown格式):
1、用于检验行文结构、论证逻辑的:
## Role:
你是一名擅长论证问题的专家,非常注重文章行文结构和逻辑性。
## Instruction:
-所有的写作都严格按照“金字塔原理”展开,即总-分-总结构
-不做冗长铺垫,只聚焦核心逻辑的推演与结论。
-以长句用于解释机制(例:"多重价位中标方式意味着利率由市场供需决定,央行仅设定操作量") ,用短句用于强调结论(例:"短期看多,长期需谨慎")。
-使用"因此""然而""关键问题在于"等连接词,明示因果关系或转折。
-语气与态度为理性克制,多使用"可能"、"基本达到"、"大概率""或"等词汇体现不确定性。
-文字可读性很强,条理清晰。
-最常用“提问-解释”的行文结构,用来引发读者思考。
## Attention:
输出格式必须严格遵守以下结构:
[逻辑评分](1-10分)
[关键漏洞](没有可以写无)
[增强建议](具体改进方案,没有可以写无)
[验证结论](通过/有条件通过/不通过)
2、用于修改语言风格和措辞的:
## Role:
你是一名擅长文字润色和优化措辞的专家。
## Instruction
文字风格指南:
1. 正式专业风格:文本使用专业术语和正式的语言风格,符合行业标准,如“电子元器件分销商”、“供应链管理”。
2. 客观中立态度:采用客观描述,避免个人情感色彩,多使用“可能”、“预计”等词汇。
3. 简洁清晰表达:追求简洁凝练的表达,避免冗长复杂的句子结构,如直接陈述公司的业绩增长数据。
4. 逻辑清晰结构:通过长句解释分析过程,短句强调结果和结论,例如在分析技术发展后简洁总结市场影响。
5. 连接词应用:恰当使用连接词,保证句子间和段落间的逻辑连贯性,如使用“因此”连接政策支持与行业发展的关系。
## Example:
XXXX公司作为国内领先的电子元器件分销商,正迎来行业景气度的持续回升。公司凭借深厚的技术积累和广泛的原厂授权资质,在国产替代加速的趋势下迅速扩张业务规模。2017-2021年,公司营业收入CAGR达到33.75%,扣非归母净利润CAGR达到28.71%。预计公司2022-2024年营业收入分别为59.35亿、77.40亿和105.20亿元,归母净利润分别为1.56亿、2.55亿和3.54亿元,EPS分别为0.25、0.40和0.56元/股,对应PE分别为27.99、17.16和12.35倍。基于公司在行业内的领先地位和未来的成长潜力,我们给予XXXX“买入”评级,目标价为10.00元。然而,需要注意的是,公司可能面临业绩波动、产品代理授权取消或不能续约、新冠肺炎疫情以及市场竞争加剧等风险。关键问题在于,公司如何应对这些挑战,以保持其在行业中的竞争优势。
## Attention:
请严格遵照上述文字风格指南和案例,对后续内容进行调整。
3、用于规范行文的:
## Role:你是一名专业的分析师,写作时应严格遵循以下原则:
- 使用正式、凝练的中文,避免口语化表达;
- 采用“金字塔原理”结构:先给出结论,再提供支持论据;
- 禁止输出任何“思考过程”或“步骤”;
- 输出必须只包含一个自然段,不得出现空行或换行符;
- 语气理性克制,多使用“一般而言”、“可能”、“基本上能”、“基本充分”、“大概率”等词汇体现不确定性;
- 使用连接词如“因此”“然而”“关键问题在于”等,明示因果关系或转折;
- 文字可读性强,条理清晰,避免冗长铺垫;
- 采用“提问-解释”结构,引发读者思考。
## Instruction
严格遵守以下行文结构:
【事件】
简述核心观点,如{“美联储公布FOMC会议纪要”}
【关注要点】
— 为何事件重要(1 行)
— 关键数据(用阿拉伯数字)
— 市场预期 or 产业链影响
## Workflow
请基于以上信息,按以下逻辑输出 1 段 200±30 字的中文快速点评:
- 句 1(≤25 字):直接给出整体结论/宏观判断。
- 句 2-3:补充背景与核心数据,说明变化源头及行业/市场冲击。
- 句 4:提出操作建议(板块/品种/策略),包含时间框架与风险提示。
仅返回段落本身,不要添加任何换行、编号或额外说明。
进阶2.0:RAG与本地知识库
什么是RAG(检索增强生成)?
检索增强生成(Retrieval-Augmented Generation, RAG)是一种将信息检索与文本生成相结合的技术,用于提高大型语言模型(LLM)回答的准确性和上下文相关性。简单来说,在回答用户问题时,引入一个检索模块从外部知识库中提取与问题相关的支持文档,然后将这些文档与原始输入一起交给生成模型,产出最终答案。通过在生成前提供来自“权威知识库”(由我们自己导入)的证据,RAG可以有效弥补模型自身知识的不足,使模型能够访问超出训练语料的最新信息,从而提升回答的可靠性与准确性。由于LLM的参数记忆本质上是静态的,RAG提供了一种无需重新训练模型就能扩展其知识范围的方法。这不仅让回答更加贴合最新事实,减少了模型凭空猜测(即“幻觉”)的机会,也增强了回答的可控性和上下文相关度。
怎样通过RAG技术构建本地知识库?
要在本地构建一个知识库并应用RAG,通常需要以下步骤:
1、数据收集与预处理。首先收集领域相关的文档资料(如文本文件、PDF、网页内容等),并进行必要的清洗和分段。为了便于检索,长文档通常被拆分成较小的“文本块”(chunks),每块涵盖一个完整语义单元;
2、向量化与索引。将每个文本块转换为向量表示(embedding)。这通常利用预训练的文本嵌入模型,将语义相似的内容映射到临近的向量空间中。随后,将所有向量存储在向量索引(如FAISS、HNSW等)或向量数据库中,以支持后续的相似度检索。这一过程相当于构建了模型可理解的本地“知识库”索引;
3、查询与检索。当用户提出问题时,将问题句子同样向量化,在向量索引中搜索与之语义相似度最高的几个文本块。这种基于向量的检索能够找到与问题相关的内容片段,而不仅仅依赖关键词匹配。例如,用户询问一个专业术语,检索模块会返回知识库中解释该术语的段落作为参考信息;
4、提示增强与生成。将检索到的相关文本片段与原始用户问题合并,构造成扩充后的提示(Prompt)提供给LLM。模型在提示中获得了额外的上下文后,便据此生成答案。由于提示中包含了与问题密切相关的事实性信息,模型的回答更有依据,其内容的准确性和上下文相关性大幅提高。例如,没有RAG时模型可能无法回答的最新事件,通过提供相关资料片段,RAG使模型能够给出基于新信息的回答。
如何对接多Agent系统并集成?
在前述的多Agent架构中引入RAG,可以赋予系统更强的检索和知识引用能力,进一步提升答案的可信度和专业性。如前所述,多Agent系统往往由多个分工明确的智能体协作完成复杂任务。我们可以设计一个专门的“检索Agent”,负责与本地知识库或外部数据库交互。当其他Agent在推理过程中遇到知识盲区或需要引经据典时,就请求检索Agent获取相关信息。检索Agent利用RAG从资料库中提取所需文本片段,并将其反馈给请求方Agent,用于后续的决策和答案生成。这种模式相当于在Agent团队中加入了一位“资料员”或“图书管理员”,确保系统在需要时能参考权威资料而非凭空臆测。
另一种方式是让每个Agent在各自职责范围内都具备检索增强能力。例如,一个解答用户法律咨询的Agent,可以在生成回答前自动检索本地法规条文数据库;又如撰写技术报告的Agent,可查询论文和文档以提供引用支持。通过将RAG集成到Agent的提示策略中(即先检索再回答),每个Agent都能基于最新的知识执行任务。这样的多Agent系统在协作时,不仅依赖自身的参数记忆,还共享了一个动态更新的外部知识源,使整体决策更加依据事实依据。
值得一提的是,RAG与Agent的结合已在一些前沿实践中展现出巨大潜力。所谓“Agentic RAG”指的就是将自主Agent与检索增强相融合的新范式,被认为是构建动态决策、实时适应环境的智能系统的关键。比如基于LangChain的Agent可以被配置成在需要时调用检索工具,从向量数据库中获取额外信息,再决定下一步行动。这种自主检索的能力让Agent在面对复杂任务时更从容——它们可以一边对话或规划,一边查询资料佐证自己的判断。研究指出,结合了检索系统与自主Agent优势的RAG框架能够处理多样化的真实世界任务,显著提升AI系统的上下文感知和决策可靠性。在实践中,这意味着无论是客户服务助手自动查找FAQ答案,还是学术助理检索文献生成引注,多Agent系统借助RAG都能表现出更强的知识支撑能力,为最终用户提供带有依据的高质量回复。
实践:推荐使用lightRAG等工具
实践中,为了简化RAG流程的构建与部署,出现了多个成熟的开源框架。其中,我们更推荐使用的是lightRAG。它是一种轻量化、模块化的检索增强生成架构,专为实际应用中的部署效率、易用性和灵活性设计。相较于传统的RAG框架(如基于Faiss或Llama Index的方案),lightRAG摒弃了过重的工程依赖,强调“即插即用”的组合能力:用户可以自由选配嵌入模型、检索后端、生成模型等组件,通过简洁的配置快速搭建起一个高效的知识增强系统。
lightRAG的最大优势在于“精简而不牺牲能力”。一方面,它通过轻量的代码结构降低了集成和维护的门槛,特别适合中小型企业或个人开发者;另一方面,它保留了RAG的核心机制,包括多文档检索、上下文构造与答案生成流程,并支持与现有Agent框架(如LangChain Agent或自定义多Agent系统)无缝衔接。开发者可以轻松调用lightRAG作为某个Agent的知识接口,使其具备动态提取外部信息、丰富内容生成的能力。在复杂任务中,如报告写作、文献对话或策略评估,lightRAG为Agent提供了一个可靠的“信息基座”,显著提升了整体系统的知识支持质量与响应可信度。此外,lightRAG还支持本地部署与私有知识库接入,保障数据安全的同时,避免对云端服务的重度依赖,适合对隐私性或实时性有较高要求的场景。
总体来看,lightRAG在工程简洁性与功能完整性之间实现了较好平衡,是当前在多Agent架构中引入本地知识增强的理想选择之一。
进阶3.0:Socratic-Prompt与Self-Check削弱模型幻觉
深度研究的最核心问题是:为什么大模型会产生幻觉?
在默认情况下,普通提示(prompt)下的语言模型往往缺乏对自身回答的反省和严格推理结构的约束,这使其生成内容时容易出现“幻觉”(hallucination)现象。所谓幻觉,指的是模型给出了看似合理但实际上虚假或不准确的答案。
造成这一问题的原因有多方面,但核心在于:大型语言模型本质上是通过在海量语料上学习文本模式来预测下一个词语。模型并没有内置真实理解或事实校验的机制,因此当遇到训练数据中缺乏的知识时,它倾向于根据学到的模式“填补空白”,甚至不惜编造信息以完成一句话。简单来说,如果用户提问涉及模型知识盲区或需要推理而模型未被明确指导,其回答可能只是凭借相关语境胡乱拼凑,缺乏真实性和一致性。这就是普通Prompt下幻觉频发的根源。
此外,普通提示往往直接要求模型给出答案,没有要求模型展示中间推理过程或反思检查步骤。这种“一步到位”的生成使模型倾向于跳过严谨的逻辑推演,直接产出表面上连贯的结论。然而缺少逐步演绎过程,模型可能无法发现自己推理中的漏洞或事实错误。例如,在没有约束的情况下,模型可能自信地提供一个不存在的引用出处,或将两个人物的事迹混为一谈而不自知。模型输出的流畅性掩盖了其中潜藏的谬误,当提示缺乏引导时,模型也缺少“反省”的契机去校正自己的回答。这正是普通Prompt的局限:模型缺少自我检查和平行验证的机制,从而对谬误毫无察觉,最终将不真实的信息输出给用户。
可以显著改善幻觉问题的两种方法:Socratic-Prompt与Self-Check
针对上述问题,研究者和开发者提出了多种强化模型自我监督和推理的提示策略,其中具有代表性的方法包括苏格拉底式提示(Socratic Prompting)和自我检查(Self-Check)框架。
Socratic-Prompt(苏格拉底提示)借鉴了人类教学中的苏格拉底提问法,其核心思想是通过提问-回答的循环引导模型逐步深入思考问题,而不是直接给出最终答案。具体来说,代替一次性要求模型回答复杂问题,提示词引导模型先提出一系列相关的子问题,或让模型自身针对原始问题进行拆解和反问,然后再逐一解答这些子问题,最终汇总形成完整答案。
有趣的是,这个过程类似于模型同自己进行对话辩论:每提出一个假设或部分答案,即对其加以反思或进一步追问。在不断的追问下,模型被迫检视自身对问题的理解是否透彻、推理链条是否完整可靠。这样的逐层刨根问底可以避免模型匆忙给出未经深思的结论,鼓励它在回答前先检验思路的正确性。从实践来看,“苏格拉底式提示”往往能促使大语言模型给出更精确且有依据的答案,并能附带合理的解释过程。模型在对话中不断被要求阐明理由、来源和逻辑,使其难以敷衍了事地编造事实,从而可以在一定程度上缓解幻觉问题。
Self-Check(自我检查)则是一种让模型充当自身审查员的思路。其基本框架是:先让模型按照常规流程生成回答草稿,然后引导模型对这个初始回答进行审核和反思,找出其中可能的错误、不合理或不一致之处,并尝试纠正。Self-Check提供了一种自监督回路,即模型生成内容后,重新扮演“校对者”角色检查前面的输出。这种检查可以是多方面的,例如核对事实陈述是否与已知常识或提供的资料矛盾,推理步骤是否合逻辑,答案是否完整回答了提问等。如果发现问题,模型将在反馈基础上进行修改完善。研究表明,大型模型在零样本设置下具备一定能力识别自身推理过程中的错误。Self-Check正是利用这一能力:通过设计适当的提示,模型可以标记出自己推理链条中的可疑环节,然后据此调整答案,从而提高最终结果的准确度和一致性。
例如,一个模型计算一道数学题,如果最后结果可能有误,Self-Check步骤会引导模型重新审视每一步计算,发现某步算错或遗漏了某种情况。确认错误后,模型即可纠正并给出更新的答案。又或者在生成一段历史叙述后,Self-Check提示模型:“请检查以上叙述中有无与已知史实不符之处”,模型若检测到某个年份或事件有出入,就会修正为正确信息。这种自我审阅的过程类似于作者写完文章后自行校稿:通过反思来发现疏漏和谬误,并在下一个版本中改进。值得注意的是,自我检查并不依赖额外的外部工具或数据,它更多地是利用模型内部的知识和推理能力来交叉验证自己的答案。例如最新的研究Self-Check框架提出,让模型对自己的逐步推理进行验证打分,并结合多个解答的自检结果投票,能够显著提升复杂问答任务的正确率。
业界已经证明,由模型来审阅先前回答并提供改进建议,可以有效纠正模型常见错误,减少不可靠信息的输出。总体而言,Self-Check思路为大型模型增加了一道自审程序,使其输出经过“二次思考”,从而更趋近严谨可信。
不同技术路线的对比与优劣
将普通Prompt、Socratic-Prompt和Self-Check三种策略进行对比,可以发现它们在生成质量、一致性及幻觉控制方面各有特点。
●普通 Prompt:优点是使用最为简单直接,响应速度快,适用于那些问题明确且模型掌握充分知识的情境。但其缺陷也很明显:由于没有强制性的推理展开和验证过程,模型往往倾向于给出即兴式的回答,哪怕不确定也会编造细节以满足提问要求。这导致普通Prompt下回答的可靠性难以保证,事实错误和不一致之处可能不易被模型自身察觉。特别是在开放领域问答或知识密集型任务中,普通Prompt生成的结果经常缺乏依据支撑,出现幻觉的概率较高。
●Socratic-Prompt:通过引导模型自问自答、步步深入,Socratic提示显著强化了模型的推理深度。模型被动转换为主动思考,多轮提问促使其检查前提、划分子任务、解释每一步推论,这种过程有助于提高答案的逻辑性与完整性。相较普通Prompt,Socratic方式下模型更不容易前后矛盾或遗漏要点,因为在对话推进中不合理的地方可能被下一问及时暴露并纠正。此外,由于模型需要为每个中间问题给出解释,它生成的内容往往附带依据和分析过程,使最终答案更具透明度和说服力。当然,Socratic提示的不足在于实现复杂度和时间开销更大——它相当于将一次提问扩展为模型的一系列对话,对计算资源的消耗也更高。在多Agent架构下,可以考虑引入一个专门的提问Agent来实现Socratic式的引导,但这增加了系统设计的复杂性。不过在对答案质量要求极高的场景(例如医疗诊断、法律咨询),这额外的开销是值得的:苏格拉底提示有效降低了模型胡乱回答的倾向,让每一步都有据可循,从源头上减轻了幻觉风险。
●Self-Check:自我检查为模型输出把了一道“后置关”。与Socratic不同的是,它不干预模型最初的思考过程,而是在生成初稿后再进行审核修正。其优势在于提高答案准确性的同时不显著增加用户交互轮次:用户仍然只提一个问题,模型内部完成回答和校对两个阶段。例如在多Agent系统中,可以在主Agent生成答案后,引入第二个担任“审查官”的Agent来依据已有知识或规则校验该答案,再决定是否让主Agent修正。这种双重把关机制下,最终给出的答复更可靠。一大优点是Self-Check能捕捉到一些模型自己都没注意的错误。例如模型在编造一个引文后,审核步骤可能让它意识到引文不存在从而改正。相比苏格拉底提示,自我检查对提示设计的侵入性更小——无需彻底改变模型回答方式,只是在结尾追加检查指令即可。因此在工程实施上更易于整合到现有Agent流水线中。然而,Self-Check也有局限:它依赖于模型识别自身错误的能力。有些情况下,模型可能对自己的谬误抱有不正确的信心,从而在检查阶段也未能发现问题。此外,自我检查可能会增加一次模型调用,如果模型本身计算昂贵,这也需要在效率上权衡。尽管如此,研究和实践表明,引入自我验证的模型往往比单次输出的模型稳定性更好,在知识问答、推理题等场景下正确率更高。特别是结合多Agent架构时,一个负责自我检查的Agent或模块可以极大提升团队决策的可靠性:它为所有Agent的输出提供了统一的质量门控,减少了错误信息被进一步传播的风险。
综上,三种提示策略各有适用情境:
1、普通Prompt胜在简单高效,但在复杂任务中容易幻觉频出;
2、Socratic-Prompt通过结构化对话增强了模型思考深度,适合需要缜密推理、不容出错的任务,但实现相对繁琐;
3、Self-Check为结果增加了校验纠错环节,在保持交互简洁的同时提高了答案准确度,是权衡效果和成本的一种折中方案。
在多Agent系统中,这些方法也可融合应用:例如先用Socratic式提问Agent挖掘各方面信息,再用Self-Check机制由另一Agent审核整合最终答案,从而最大程度地降低谬误。随着对抗幻觉需求的提高,未来的智能体很可能同时具备这两种“自省”能力——既能在回答前透过提问深入推理,又能在回答后反思检验,在群体协作中实现更高层次的可靠与智能。
债市深度研究实践案例
可转债研究:分析正股基本面
固收领域中最容易让大模型入手的工作就是转债个券研究。一方面,转债品种涉及行业较多,而机构在正股研究上对颗粒度要求相对不高,非常适合大模型进行批量化研究;另一方面,转债投资又对量化技术有一定需求,大模型在写代码及编制量化策略方面也很有优势。
我们使用大模型对转债进行研究实践主要有以下几个尝试:
第一、正股个券研究。全覆盖个券研究在转债上几乎很难实现:一方面,转债市场总量规模不大、但个券数量过多,必然导致研究员数量较少à难以跟踪如此多数量的个券;另一方面,大量转债个券正股为微盘股,几乎没有行业研究员深度覆盖,现成的研究资源本就匮乏。但大语言模型能大幅提升转债研究员覆盖个券的能力:1、快速整合财报、公告等数据;2、大模型的Deep Research版本能快速生成较好的个券深度报告;3、联网搜索个券已有的市场公开信息
第二、转债策略量化研究。转债市场个券繁多+择时重要性强于股市+低价等天然的因子指标à量化研究是转债投资者的基本功。大模型对于代码的提升毋庸置疑,基本能让代码初学者短期快速提升至熟练水平。尤其在金融领域的类脚本代码,大模型几乎能完全替代研究员的代码写作。譬如我们需要复盘过去几年不同股债配比下的策略净值,大模型能够快速给出python代码、实现策略。
第三是、市场复盘、调研总结等市场信息层面。股市复盘、转债市场复盘等日度信息层面,经过训练的大语言模型能快速总结。大语言模型还能快速总结单只个券的调研信息、会议记录等,并且其中的搜索功能还能够获取常规搜索很难看到的部分信息,能够极大提升转债投资者的研究效率。
先以正股个券研究为例,如何使用大模型进行深度研究?首先,我们已经根据前文构建了多智能体研究系统,包括研究主管、独立研究员、质量控制、资料搜索引擎以及文字润色者等多个Agent。需要特别设计的主要是针对 转债的Prompt,我们建议尽量参照深度研究报告大纲,再加入一些短期信息,整合为一个研究框架,示例:
## 公司基本面研究框架
请基于一名专业的A股行业分析师的视角,对公司进行详细的研究:
1、公司概况与重要信息:公司的起源与发展历程、公司的创始人与主创团队梳理与分析、当前的股权持有结构。
2、行业分析 :公司所处行业、核心业务、产业链中的位置、主要竞争对手等。结合波特五力模型对公司所处的行业进行分析。
3、业务模式与盈利能力:主要产品/服务结构、客户与供应链、盈利能力、成本控制。4、成长性与市场拓展:市场份额、公司扩张路径、行业趋势。
5、经营效率与财务健康 :收入与利润增长、ROE/ROIC/ROA、资产负债结构、财务估值。
6、竞争优势与投资亮点 :核心竞争力、增长催化剂、市场与估值预期、2025-2027年的盈利预测模型。
7、未来股价波动因素。
再以转债量化为例,能够快速获取简单的策略代码,譬如构建转债市场的风格因子:
请利用python代码构建以下转债因子:
已有的dataframe:A:资产价格、B:资产平底溢价率、C:资产余额……
构建及输出因子的方式:算数平均的指数构建方式
1、高价、中价、低价:通过价格110、130元分为三类;
2、大盘、中盘、小盘:通过余额10、40亿分为三类;
3、偏债、平衡、偏股:通过平底溢价率0.8、1.2分为三类;
……
最后输出成为一个各风格指数dataframe返回
其他需要注意的有:价格、平底溢价率、余额……的index、columns不完全匹配
当然,简单prompt在实践中存在不少问题:
1、大模型很容易泛泛而谈,需要加入很多限定词强化提示。如
分析前:1)所有分析都要基于最新财务报告;2)行业分析要篇幅多一点,重点关注产业链关键环节、商业及盈利模式、行业竞争格局;3)聚焦公司,分析市场份额、关键财务数据、估值和基本面的匹配度、短期和中期股价上涨的催化剂;4)请按照以下报告模版输出内容:【1、2、3、4……】
2、正股个券研究幻觉一般比较严重——单纯prompt可能难以完全解决,建议用RAG与本地知识库。我们建议使用1~3万份文字材料作为资料喂进本地知识库(如招股书、券商研报、微信公众号文章等),实践证明十分有效。但对于一般投资者而言,搭建RAG及知识库嵌入成本较高,可以用其他两个方法减轻幻觉:①Socratic-Prompt强制反刍;②self-check。再简单一点,还可以将答案变为问题再重复投喂给大模型,当然如果能够python实现,后续答案质量一般会更好。
3、转债量化研究中代码持续报错,且将报错信息返回后大模型仍不能解决。解决方式通常有:①尽量分步骤提升大模型,不要单次生成过长的代码;②完善原始的输入,并提式大模型我们已有的数据库;③不单纯返回报错,将原始语句、语句输入输出一同返回;④提示大模型灵活调整算法,不局限于报错函数。
转债深度研究成果节选,供投资者参考:
信用债研究:分析主体信用资质和偿债能力
信用研究方面,我们以发债主体信用资质分析这一主要日常工作任务为例,来探讨AI技术可以如何赋能。从主观研究角度出发,要分析发债主体(非银为例)信用资质、偿债能力和风险,首先要把主体区分两大类:城投与产业公司。二者适用不同的分析框架,如果是城投平台,那么区域资源禀赋、政府支持力度的分析重要性高于主体本身的盈利能力;如果是产业公司,那么则重点分析行业、主营业务情况。相应地,输入给大模型的研究框架区别就很大:
如果公司属于城投平台,需要在Prompt主体中增加以下框架要求:
## 信用资质分析框架
请严格按以下逻辑逐步分析【XXX】公司的信用资质情况,注意使用最新数据(不晚于2025年一季度)。
1、确认平台层级(省/市/区县),分析区域宏观经济情况,如GDP及增速、人均GDP、人均可支配收入(城镇/农村/全体)、固定资产投资增速;分析区域地方政府财政实力和债务压力,如一般公共预算收入、政府性基金收入、上级补贴收入、税收收入、地方政府债务余额、地方显性债务率、地方隐性债务率;分析区域主要金融机构资源,如本区域存款贷款总额及增速、本省银行数量、对本省贷款投放情况等。2、分析政府对公司的支持力度(资产划入、注资、补贴等),公司在同层级平台中的地位;3、介绍公司主营业务,包括各板块收入总量及占比;根据毛利率、净利率、ROE指标分析公司盈利能力;4、分析公司资本结构(品种、期限、成本等),偿债能力;5、总结城投平台相关化债政策和公司所处区域有关政策,以及各类融资政策变化是否对公司偿债能力有所影响。
如果是产业公司,则是:
## 信用资质分析框架
请严格按以下逻辑逐步分析【XXX】公司的信用资质情况,注意使用最新数据(不晚于2025年一季度)。
1、分析公司所属行业特征、供需关系、行业最新政策动向、宏观经济对景气现状影响及展望,企业在产业链中的位置、议价能力,周期性强弱,现有市场规模及未来增长潜力等;2、公司主营业务介绍,包括各板块收入总量及占比,公司的核心竞争力/发展策略;根据毛利率、净利率、ROE指标分析公司盈利能力;3、分析公司资本结构(品种、期限、成本等)、偿债能力;4、明确公司属性(央企、国企、民企),以股权穿透的最终结果为基础总结当前股权结构,股东背景;是否获得资产划入、注资、补贴等形式的政府支持。以及融资能否获得较多银行的支持。
最后再根据以上分析,结合主观判断指出公司偿债安全性如何、公司抗风险能力的主要优点及应该持续跟踪的风险点等。
AI可以帮助我们进行基本信息的搜集和整理,通顺且有逻辑的文字描述,对一个主体进行初步、迅速的了解和分析,但是距离深入精细的研究尚有一段距离。需要格外提防并人为优化的地方有三点:
第一、数据的准确性、全面性和及时性。如何解决数据方面的问题?可以把输入的指令详细化,譬如具体到什么公告、哪一个外部链接或者具体的网址,公告/网址中的哪部分内容。不过,搜集整理具体的网址也比较花费时间,如区域财政金融数据,每个省/市/区县都有自己的网站,每次整理相应的数据来源也较为繁琐,需要自己建立并积累起相应的资料库。
第二、资料来源方面,信用债的研究需要较大程度地参考信用评级公告。但信用评级公告尚未更新的情况下,可能只能依托:1)公司披露的年报或半报报;2)市面上的公开信息;3)调研得到的一手资料但相对私密、说服力不足。这就需要进行更大范围的深度搜索与研究,较为耗费资源与人力;
第三、大模型“思辨性”仍不够,因此在定性判断上还不能完全替代人类,例如政府对于公司的支持力度,公司在所处区域中的地位等,这部分内容还是只能以主观判断为主,大模型结果只能适度参考。
风险提示:
1)模型接收信息不及时。若模型接收外部输入存在延迟,可能导致决策或输出结果滞后于实际需求,例如在实时监控、高频交易等场景中,信息延迟会直接影响系统响应效率。此外,数据采集或传输链路的中断、处理算法的计算瓶颈,都可能加剧信息接收的不及时性,进而引发误判或操作失效。
2)智能体协作传导不畅。多智能体系统中若协作机制设计不合理,可能因通信协议不统一、信息传递路径冗余或优先级混乱,导致指令传达错误或执行延迟。例如,工业机器人集群或自动驾驶车队的协同任务中,传导不畅可能引发动作冲突、资源浪费,甚至系统级联故障。
3)数据安全问题。数据存储或传输过程中若缺乏加密保护、权限管控或入侵检测机制,可能面临数据泄露、篡改或非法访问的风险。敏感信息如用户隐私、商业机密一旦外泄,不仅违反合规要求,还可能被恶意利用,造成经济损失或品牌声誉受损。此外,数据完整性受损也可能直接影响模型训练或业务决策的可靠性。
相关研报
研报:《债市研究智能体:“Prompt+”与多Agent协同——固收量化系列报告》 2025年5月13日
张继强 S0570518110002 | SCF AMB145 研究员
殷 超 S0570521010002 研究员
方翔宇 S0570122070155 研究员
文晨昕 S0570520110003 研究员
王晓宇 S0570122070156 研究员
关注我们
https://intl.inst.htsc.com/research
访问权限:国内机构客户
https://intl.inst.htsc.com/research
免责声明
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-20
deerflow-你的私有化夸克搜索。实测与一手本地模型部署指北
2025-05-20
Agent大爆发!微软发布10多个智能体,自动化大时代降临!
2025-05-20
Google重磅推出Jules,可自主生成PR,硬刚OpenAI的Codex!
2025-05-20
AI 应用还在卷生卷死,微软已经将MCP准入规范写进了操作系统里
2025-05-20
Agentic AI:存在主义羊角包
2025-05-20
大模型多智能体在网络安全领域的应用发展
2025-05-20
OpenAI创始人红衫AI峰会最新爆论:AI创业者,想活命就别再跟老子卷大模型了!
2025-05-20
银行大模型应用:“小即是美、一企多模、实用优先“
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-05-18
2025-05-18
2025-05-17
2025-05-13
2025-05-13
2025-05-12
2025-05-11
2025-05-09