微信扫码
添加专属顾问
我要投稿
AI驱动的标底助手,让售前工程师告别繁琐计算,实现精准报价与高效竞标。核心内容: 1. 传统标底编制的三大痛点:方案成本脱节、响应迟缓、经验依赖 2. 基于Dify平台的智能标底生成Agent技术架构与创新价值 3. 算力服务器场景下的参数标准化与组合优化实战案例
对我们售前工程师而言,标底不仅是数字,更是我们技术方案的价值锚点和竞标胜负手。它必须精准匹配技术承诺,并在残酷的价格竞争中守住利润底线。但在日常工作中,标底准备环节让我们头疼不已:
方案与成本脱节,报价心惊胆战: 技术方案频繁调整,每次优化都意味着成本结构的重新测算。手动将BOM清单、工时、软硬件资源逐一核算对标,工作量大且极易出错。最怕的就是因漏算、错算导致标底失真,要么丢单,要么中标即亏损。
响应迟缓,错失战机: 投标窗口期极短,我们耗时在繁琐的成本核算和询价上,反而挤占了打磨核心技术方案、编写标书、与客户沟通的关键时间。效率瓶颈让我们在多个项目间疲于奔命,甚至被迫放弃一些机会。
经验壁垒与协同之痛: 标底高度依赖个别资深同事的经验判断,新人难以快速上手。一旦骨干离职,成本测算能力就面临断层。同时,与采购、财务等部门协同询价和数据核对,流程漫长,内耗严重。
标底助手agent通过AI与大数据技术精准破局,将专家经验、市场行情与产品规则深度融合,转化为实时、精准、可溯源的智能编写能力,实现标底编制的自动化、精准化与策略化。
接下来,我将以“销售算力服务器产品”为例,详细讲解如何搭建智能标底生成Agent。
在算力服务器招投标场景中,我们面临着一个令人头疼的参数迷宫。举例来说:
基于上述技术痛点,我们创新性地构建了一个基于dify平台的智能标底生成Agent。这个系统的核心价值在于:将复杂的硬件配置参数自动转换为标准化的招投标技术指标。
具体而言,我们的系统能够智能识别GPU名称并自动映射到对应的FP16性能值,同时精准解析服务器型号并输出其内存扩展能力等关键技术规格。
从数据规模来看,我们面临的是一个典型的组合爆炸问题:
显然,这种规模级的参数记忆对于营销人员而言是不现实且不高效的。因此,我们的AI Agent应运而生。
CPU:2* Intel Xeon 6430 2.1GHz 32C/64T
内存:16*32GB R-ECC DDR5 4800MHz服务器内存
GPU卡:8*GeForce RTX4090 24G
硬盘:2*480GB SATA SSD硬盘;支持8热插拔硬盘位
数据盘:1*8T SATA 机械硬盘
阵列卡:1* 1GB 缓存 RAID 卡,支持 RAID 0,1,5等
散热套件:STWB专用散热套件
网络:1*10G2BF-SFP+/双口/万兆/光纤/含多模模块/82599
电源:2000W(2+2)冗余电源"
📤 输出结果:标准化技术指标
技术标底:
1)规格: 机架式服务器
2)★处理器: 每台服务器配置≥2颗处理器,每颗核心数≥32核,主频≥2.1GHz
3)内存: 每台服务器配置≥16条32GB DDR5 4800MHz 服务器内存,最多可扩展≥32根内存插槽,支持DDR5-4800MHz内存;
4)硬盘: 每台服务器配置≥2块企业级固态硬盘硬盘,配置≥1块企业级机械硬盘;支持RAID 0,1,5;
5)硬盘扩展: 每台服务器可支持≥8个硬盘,最大支持≥4块NVME,板载支持≥2个NVME;
6)★算力单元: 额外增加算力单元,数量≥8个,单个可提供≥82.58 TFLOPS FP16性能,≥82.58 TFLOPS FP32性能,≥1.29 TFLOPS FP64性能,显存不低于24GB,显存带宽≥1008GB/s,功耗≥450W
7)网络: 每台服务器板载配置≥1个10G2BF-SFP+;
8)电源: 每台服务器配置≥2个2000W高效冗余电源;
9)具备3C认证证书,提供复印件证明;
10)设备生产厂商具备ISO9001,ISO27001,ISO14001,ISO45001提供证书复印件;
11)提供原厂保修3年,包括电话及现场维修。
🎬 产品演示视频
首先,我们采用了结构化数据治理的方法论。具体实施过程中,我们将散乱的GPU参数Excel表格转换为标准化的JSON数据结构,随后将其存储到高性能知识库中。
以H100-SXM为例,经过数据治理后的结构化表示如下:
{
"型号":"H100-SXM",
"GPU / 图形处理单元(架构)":"GH100(hopper)",
"GPU Cores / CUDA 单元数":"16896",
"Tensor Cores / Tensor 核数":"528",
"Core Clock / 基本频率":"1590 MHz",
"Boost Clock(s) / 超频频率":"1980 MHz",
"Memory Clock / 显存频率":"2.6 GHz HBM3",
"Memory Bus Width / 显存位宽":"5120 bit",
"Memory Bandwidth / 显存带宽":"3.35TB/s",
"VRAM / 显存":"80GB",
"FP16":"1979 TFLOPS",
"FP32":"67 TFLOPS",
"FP64":"34 TFLOPS",
"Interconnect Bandwidth / GPU-GPU带宽":"NVLink :900GB/s",
"Transistor Count / 晶体管数量":"4 nm 80,000 million",
"Form Factor / 外形":"SXM 接口,适合于NVLink专用主板",
"TDP / 设计功耗":"700W"
}
服务器规格多模态解析
同时,我们创新性地引入了多模态AI技术。利用Qwen 2.5 VL 72B大模型的视觉理解能力,我们对服务器产品彩页进行了智能化信息抽取。这一技术突破使得我们能够从非结构化的图像数据中精准提取关键技术参数。
经过多模态处理后,服务器规格信息被转换为如下标准化格式:
{
"处理器":"支持2颗AMD EPYC™ 7002/7003系列处理器 最高TDP280W",
"内存":"32根内存插槽,可支持DDR4 3200MHz ECC内存 容量高达4TB",
"硬盘":"前置:支持12个3.5英寸或2.5英寸硬盘(8NMVE+4SATA\\SAS)\n内置:支持2个M.2(2280PCIe 4.0 x4)\n后置:四口2.5寸硬盘模组(SATA\\SAS\\NVME)选配",
"扩展槽":"支持6个标准插槽,最大可扩展至8个插槽\n2*PCI-E 4.0 x16 5*PCI-E 4.0 x8",
"网络":"四口千兆OCP网卡",
"其他端口":"前置:1 个 VGA、2 个 USB3.0\n后置:1 个 VGA、2 个 USB3.0、1 个 RJ45 管理网口、1 个 COM 、1 个 OCP NIC 3.0 插槽",
"操作系统":"Microsoft Windows Server、Red Hat Enterprise Linux、SUSE Linux Enterprise Server、CentOS、UBuntu、Oracle Linux、VMware ESXi、Citrix XenServe。",
"电源":"支持2000W (1+1)高效冗余电源",
"系统尺寸":"深87.8mm(高)×447mm(宽)×793.4mm(深)",
"工作环境温度":"5°C ~ 35°C"
}
🔄 第二阶段:工作流设计与智能处理管道
在完成了高质量的数据治理工作之后,我们进入了工作流设计阶段。考虑到招投标场景的严谨性要求,我们特别强调了输出内容的准确性和可控性。
为此,我们采用了Code节点作为LLM节点间的智能粘合剂,确保整个处理流程的可追溯性和一致性。
工作流的第一步是通过"梳理输入配置"LLM节点对原始输入进行智能格式化。这个节点的主要功能是将非结构化的配置描述转换为标准JSON格式,从而为后续的语义解析奠定基础。
紧接着,系统进入语义消歧阶段。我们精心设计了两个关键的LLM节点:
这两个节点的设计初衷是解决现实业务中的"一物多名"问题。在实际应用场景中,同一款产品往往存在多种不同的命名方式,这种命名不一致会严重影响知识库检索的精确度。
值得注意的是,我们的Prompt设计采用了严格匹配策略:
你是一个智能文档处理助手,请根据用户要求,输出内容
-将用户上传信息中的显卡型号,替换为本地数据库中的显卡型号;
-严格匹配,尤其是数字部分,差一个数字都不能匹配
-如果没有找到匹配项,则保留用户上传信息中的产品型号;
-按照以下json格式输出,不要做额外解释;
用户上传的配置信息{{用户输入}}
本地数据库中的显卡型号{{显卡型号列表}}
输出格式的参考:
[{"产品用途":"XX节点","产品型号":"IWXXX-XGR","处理器":"2* Intel XXX","内存":"X*XGB服务器内存","硬盘":"x*xGB SATA SSD硬盘;支持8热插拔硬盘位","数据盘":"1*xT SATA 机械硬盘","阵列卡":"1* xGB 缓存 RAID 卡,支持 RAID 0,1,5等","散热套件":"x专用散热套件","网络":"1*xG2BF-SFP+/双口/万兆/光纤/含多模模块/x","电源":"xW(2+2)冗余电源"},{"产品用途":"XX节点","产品型号":"IWXXX-XGR","处理器":"2* Intel XXX","内存":"X*XGB服务器内存","显卡型号":"8*XXX","硬盘":"x*xGB SATA SSD硬盘;支持8热插拔硬盘位","数据盘":"1*xT SATA 机械硬盘","阵列卡":"1* xGB 缓存 RAID 卡,支持 RAID 0,1,5等","散热套件":"x专用散热套件","网络":"1*xG2BF-SFP+/双口/万兆/光纤/含多模模块/x","电源":"xW(2+2)冗余电源"},{"产品用途":"XX节点","XX兆交换机":"XX口XX兆交换机"}]
图1 统一格式和语义消歧技术架构
在实际开发过程中,我们发现针对Qwen3-235B-A22B模型的输出需要进行特殊的后处理。具体而言,我们需要通过正则表达式技术来精确提取模型输出中的有效内容:
首先,去除模型思考过程标记:
import re
def main(sample_dict):
pattern = r"<think>[\s\S]*?</think>"
result = re.sub(pattern, "", sample_dict, flags=re.DOTALL)
return {
'result':result
}
然后,清理JSON格式标记:
import re
def main(assistant_content: str) -> dict:
cleaned_text = re.sub(r'^\s*```json\s*', '', assistant_content, flags=re.IGNORECASE)
cleaned_text = re.sub(r'\s*```\s*$', '', cleaned_text, flags=re.IGNORECASE).strip()
return {
"result": cleaned_text,
}
⚡ 第三阶段:并行迭代处理架构
经过前置处理阶段后,我们进入了系统的核心环节——参数智能转换模块。这个模块的核心任务是将原始硬件描述转换为标准化的招投标技术指标。
举例来说,"GPU卡:8*GeForce RTX4090 24G"这样的简单描述,
经过我们的智能处理后,会被转换为: "★算力单元: 额外增加算力单元,数量≥8个,单个可提供≥82.58 XFLOPS FP16性能,≥82.58 XFLOPS FP32性能,≥1.29 XFLOPS FP64性能, 显存不低于24GB,显存带宽≥1008GB/s,功耗≥450W"
为了应对实际业务中的批量处理需求,我们创新性地引入了迭代节点架构。在实际销售场景中,营销人员往往需要同时处理多种不同配置的服务器集群。
基于这一业务需求,我们设计了具备高并发处理能力的迭代节点。该节点能够同时调用多个"替换参数"函数实例,从而实现了真正意义上的并行化处理。
在迭代节点内部,系统会对JSON字典的每个关键组件进行并行化解析:
最终,我们通过"模板转换"节点对所有并行处理结果进行智能汇总。这个节点基于Jinja2模板引擎实现:
{{ arg2 }}
{# ---------- 先显示arg1 ---------- #}
{% for item in arg1 | default([]) %}
{{ item | safe }}
{% endfor %}
{# ---------- 当 arg3 == 1 时输出 arg4 ---------- #}
{% if arg3|int == 1 and arg4 %}
{{ arg4 | safe }}
{% endif %}
图2 并行迭代处理架构示意图
基于对生成质量和响应速度的双重考量,我们采用了精细化的工作流拆分策略。这种设计理念不仅确保了输出内容的高准确率,同时也满足了实际业务对响应速度的严格要求。
在硬件配置方面,我们构建了一个高性能的GPU推理集群:
通过这种架构设计,我们实现了显著的性能提升:生成包含两种不同机器配置的完整标底文件,整个处理时间仅需50秒,充分保证了Agent在实际业务场景中的便捷性和实用性。
为了确保系统的高可用性,我们参考了vLLM官方推荐的部署架构,具体的Nginx配置可以参见: vLLM 部署 Nginx 负载均衡技术文档(https://docs.vllm.ai/en/latest/deployment/nginx.html)
为了科学评估系统性能,我们构建了完整的量化评估体系。利用Dify平台提供的API接口,我们对精心构建的测试数据集进行了全面的性能评测。
在包含100份人工标注的标准测试集上,我们的AI Agent取得了令人瞩目的评测结果:
系统上线后,显著减轻了营销人员的工作负担,同时大幅提升了标底生成的标准化程度和专业水准。
从更宏观的角度来看,我们的Agent开发理念体现了一个重要趋势:每个AI Agent都应该被视为一个完整的软件产品。传统方法可能需要编写上万行复杂代码才能实现的功能,现在通过精心设计的Prompt工程,我们能够大幅减少规则代码的编写工作量,从而加速企业的数字化智能化转型进程。
综合来看,我们构建的智能标底生成系统代表了AI技术在垂直行业应用的一次成功探索。通过将复杂的技术参数转换、语义理解、并行处理等先进技术有机结合,我们不仅解决了招投标行业的实际痛点,更为类似的行业AI应用提供了可借鉴的技术架构和实施方法论。
未来,我们将继续深化AI技术在更多业务场景中的应用,持续推动企业数字化转型的深入发展。
如果这篇技术分享对您的AI落地实践有所启发,欢迎点赞转发!有任何技术问题或合作意向,欢迎在评论区留言交流~
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-28
智能问答的两种路径: 问答对和RAG
2025-08-28
Plaud 是怎么做大模型产品的
2025-08-28
没有发布会,没有CEO站台,谷歌用一根“香蕉”赢得了欢呼
2025-08-28
阿里达摩院偷偷放大招!RynnEC让机器人“看懂世界”只需一句话
2025-08-28
腾讯分享万字实录:用户研究员在AI时代的“三位一体”能力模型
2025-08-28
从微软、谷歌十年用研老兵身上,我学到 3 个 AI 时代用户研究员的生存法则
2025-08-28
别让AI做它不擅长的事:Agent在业务场景中的工程实践
2025-08-28
大语言模型架构的演进:从Transformer到MoR
2025-08-21
2025-06-01
2025-06-21
2025-08-21
2025-08-19
2025-06-07
2025-06-12
2025-06-19
2025-06-13
2025-07-29
2025-08-27
2025-08-26
2025-08-25
2025-08-25
2025-08-25
2025-08-23
2025-08-23
2025-08-22