支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


银行大模型应用:“小即是美、一企多模、实用优先“

发布日期:2025-05-20 05:27:09 浏览次数: 1532 作者:IT人记事
推荐语

中小银行如何有效利用AI?IBM在Think 2025大会上给出了答案。

核心内容:
1. 中小金融机构在AI应用上的挑战
2. IBM提出的企业AI战略:小模型优先
3. 小模型的优势与应用前景

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家
【说在前面】本文是收集整理公开信息后得出的推测和预判,不涉及任何内部信息源,无法保障正确性与全面性。如有异议,你是对的。


前文介绍了头部银行大模型应用的概况。各行在年报中从大模型导入概况、应用场景、研发效率提升和关键成效数据等多个维度讨论了各自的创新,非常优秀且各具特色,令人影响深刻。


中小金融机构因为没有头部银行的资源和团队,企业级AI/大模型的路径很难直接复制这些大行的实践。最近,金融业的老牌技术供应商:IBM,提出了企业级AI小即是美、一企多模、实用优先的观点。可能给中小金融机构带来另一个角度的借鉴。


上周,在波士顿召开了Think 2025大会,IBM提出了企业AI的核心观点:小即是美,小是指领域化小模型(domain-specialized small models)。一企多模未来不会只部署一个大模型,而是多个小模型在不同场景协同工作(如营销用一个,客服用一个,IT 运维再用一个)。实用优先,不是一味追求模型规模最大、参数最多,而是追求性能、效率与业务场景的最佳契合。


IBMThink 2025大会提出了专用小模型优先的企业AI 战略。IBM 首席执行官Arvind Krishna 多次强调企业级AI 应用需要针对企业数据和业务场景定制的模型,而非单纯追求规模最大的通用模型。


IBM指出,企业目前只有不到1% 的数据被大型通用模型利用如果要解锁剩余99%企业数据的价值,就需要针对企业场景量身定制的AI 方法[1]。同时,更小型、开放、专用AI 模型可更快实现ROI


为什么选择小模型?


IBM提出了选择小模型的多重理由,主要包括:

·成本与效率:小模型所需计算资源远低于超大模型,运行成本大幅降低。例如,IBM 透露其专用小模型在推理时可能比数千亿参数的大模型便宜30 倍以上。小模型只包含与特定任务相关的数据,从而节省计算和能耗。

·部署与性能:小模型更小更快,更易部署到多种环境。它们可以在本地服务器、边缘设备或云端灵活运行,不依赖于大规模算力。小模型不仅快得多、更成本高效,而且可以随需求在任何地方执行。在算力有限的场景(如智能手机、工业传感器等边缘设备)上,小模型可就地处理数据,即时释放边缘数据价值。

·针对企业数据和场景:大型通用模型在企业细分领域往往力不从心,泛化能力有限。IBM 强调使用领域定制的小模型,可以更深入地学习企业自有数据,从而提高准确度和相关性。

·可控与安全性:小模型更容易开箱可见,便于企业审计和调优,降低黑箱风险。IBM 指出,许多通用模型是闭源黑盒,企业无法验证内部机制。而小模型多采取开源、透明的方式部署,有助于企业保留数据主权和知识产权。小模型还可以依据企业合规和隐私要求进行定制训练,提高结果可信度并减少偏差、漏洞风险。

·专项性能优势:针对特定任务的小模型有时在准确度上超过通用大模型。IBM 在内部测试中发现:30亿–200亿参数级别的领域模型,在经过定向调优后,其业务准确率已经能够匹配甚至超过拥有数千亿参数的大模型[2]同时,由于模型更小、更专用,它们在推理速度、响应延迟等方面也有明显优势。


与大模型主导趋势的对比


AI行业一度热捧超大规模通用模型,IBM的观点并非完全否定大模型,而是强调两者互补。IBM CEO Arvind Krishna 明确表示,小模型不是要替代大模型,而是要与大模型结合使用,尤其是在企业场景中因地制宜地优化。IBM 认为,大模型在一些复杂任务上有用,但对于日常的分类、摘要等大部分企业需求,并不需要超大规模模型。IBM 甚至引用研究表明,训练数据的稀缺性和成本已使继续盲目扩规模变得不划算,未来AI 应用更多依赖在何处存在数据而非模型有多大。


与此形成对比的是,行业趋势也开始从更大更好转向更加务实的探索。Gartner预测,到2027年企业将使用定制化小模型的次数是通用LLM 的三倍[3]Forrester 也预计,今年内小模型的部署将激增超过60%,尤其是那些针对特定业务术语和流程训练的模型。主流科技媒体和机构纷纷关注小模型的崛起:例如MIT Technology Review 将小型语言模型列入2025 年十大技术突破,称它们更快、更便宜、效率更高[4]


小模型优先的思路在行业内引起了较大反响


业界对IBM 小模型战略的回应总体积极,多数专家与企业认为这是发展方向。技术分析机构theCUBE 研究指出,IBM 2025年行业小模型战略验证了他们在2023 年提出的“Gen AI 幂律假说:未来生成式AI 应用的长尾将是无数针对不同数据所在位置的小模型[5]


技术媒体《WIRED》报道指出,不仅IBM,微软、谷歌、OpenAI 等均已推出参数量仅数十亿的小模型产品,用于语音助手、搜索增强、数据分析等各类企业应用[6]


除了小模型,其他值得一说的点


IBMWatsonx Orchestrate,类似企业级AI智能体App Store,提供或者集成开箱即用的AI智能体组件。客户可在几分钟内构建、组装或者运行新的AI智能体,实现快速部署。


IBM强调数据质量对生成式AI 的重要性,这个观点业界是有共识的,特别是工程实践领域。小模型高质量数据工具链集成”,足以构建够用、好用、可控的企业级AI

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询