支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


LLM企业赋能(2/3)

发布日期:2025-05-13 07:24:20 浏览次数: 1542 作者:AI慢思考
推荐语

探索LLM如何助力知识工作者提升工作效率,实现个人赋能。

核心内容:
1. LLM在信息获取中的应用:常识、公开信息和私有信息的处理方法
2. 信息处理前的自问:如何明确LLM在职场中的适用题型
3. 信息呈现:如何利用LLM优化输出结果,提升工作效率

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

上篇我们探讨了LLM作为一种新型信息处理工具出现在知识工作者面前时,如何与传统工具相互配合使用的话题。这篇将继续以信息处理为锚点,深入探讨知识工作者具体如何利用LLM提升工作效率。

如前文所述,个人赋能完全可以通过现有LLM应用实现,无需企业专门开发新系统。文中会提及多种具体应用,但这些仅作为示例说明,并非唯一选择。

我将知识工作者对信息的操作分为三个环节——获取(输入)处理呈现(输出)

01

信息获取

信息大致可分为三类——常识公开信息私有信息

常识LLM通过海量训练数据“知晓”的信息,它们存在于LLM模型的神经网络参数中。如今的LLM已具备远超个人的知识储备。越是普遍、重要的知识,在训练数据中出现的频率越高,模型对其描述的准确性也越高。对于这部分内容,我们可以直接询问LLM

值得注意的是,这部分信息深受LLM训练数据的影响。中美模型训练数据的不同可能导致两者在具有主观性的知识上存在差异

公开信息指所有互联网上可以获取的信息。所有LLM模型对于其训练截止期之后的信息一无所知。此外,对于较为小众的知识,LLM模型也更容易产生错误(AI幻觉)。

对此,我们可以利用几乎所有LLM应用都具备的联网搜索功能进行补充和限定。LLM应用会根据用户提问进行联网搜索,参考搜索结果形成最终答案,并在回答中标注引用的信息源。

显然,信息源对结果有很大影响。而不同LLM应用使用的信息源也的确存在明显差异。首先,中美LLM应用更倾向于搜索各自语言的网页。其次,即使同为中国的LLM应用,由于使用搜索引擎不同也会有显著区别。

而针对搜索场景开发的AI应用(如Perplexity和国内的秘塔搜索)能提供更高质量、更全面的信息源引用。ChatGPT的Deep Research和智谱清言的沉思更是将搜索进一步提升至专业调研级别,通过多轮搜索获得更为全面完整的信息。

私有信息指LLM模型在训练时未曾接触且互联网上无法获取的信息,比如存储在个人笔记软件或网盘中的文档,或企业局域网内的资料。

这部分信息可以通过文件上传的方式提供给LLM应用。若是需要反复使用的私有信息,每次重复上传显然不够高效。此时,我们可以为LLM创建知识库

如今已有不少知识库类的AI产品,如得到的Get笔记、腾讯的imaCopilot等。这类应用允许用户利用现成的文档构建知识库,并利用内置的LLM模型(如DeepSeek R1)进行查询。

一些通用LLM应用也开始添加知识库功能,豆包甚至提供了基于本地模型的知识库,但需满足特定硬件要求。

知识库并非局限于私有信息,我们同样可以将高质量的公开信息或偏门知识纳入知识库,弥补LLM模型本身及其联网搜索方面存在的不足。

02

信息处理

在利用LLM处理信息前,我们可以先自问一个问题:我现在在做一道什么题?

我将LLM在职场擅长的题型分为六种——阅读理解、看图说话、翻译题、数学题、逻辑推理、写作题。

阅读理解是LLM应用的标配能力。对象可以是一份财报、一份国家规范、一份招标文件。在这类任务中需要注意三点:

  • LLM应用支持的最大文本长度

  • 有些PDF文件实为纸质文档的扫描版,部分LLM应用对这类PDF的解析能力有限

  • LLM应用的用户界面。例如豆包将原文和问答分成两部分显示,用户可以边看边问,体验更佳。

看图说话依赖于LLM的多模态能力。这可以是描述一款软件的操作界面,也可以是评价一份海报设计。需要注意的是,有些LLM(如Deepseek)虽然支持上传图片格式的文件,但仅能提取其中的文字信息,无法识别图像内容。

翻译题指在两种不同语言间的转换。首先自然是不同国家地区语言间的翻译。国内模型对英语的支持普遍已经足够,但对于小语种,国外应用可能表现更佳。

它还包括由不同教育背景、年龄、性别、职业等造成的语言差异。不同部门同事间的沟通常常由于思维模式和专业术语的不同产生偏差和误解。

最后是人类语言和代码间的翻译,也就是编程。编程能力是如今评判LLM模型能力的重要指标之一,也有不少针对程序员的专业AI编程工具如GitHub Copilot、Cursor、Trae等。

对于非程序员,几乎所有通用LLM应用就已足够,一些LLM应用中还可以直接运行部分代码,比如元宝和Claude。

数学题并非LLM所长,这由它的底层技术所决定。相信有些人还记得早期LLM无法正确比较0.9和0.11大小。如今LLM在处理数学题时主要通过编程(Python)这一间接方式实现。

当用户要求LLM应用分析一份Excel文件中的数据时,LLM应用会编写Python代码读取文件中的数据并进行计算分析。一些专门用于数据分析的LLM应用(如商汤的办公小浣熊)还提供了更丰富的功能,比如直接对Excel文件进行修改等。

逻辑推理在制定计划方案、进行各种定性分析时必不可少。这是推理模型的拿手好戏。

自Deepseek推出后,大多数LLM应用(豆包、混元、通义等)都推出了各自的推理模型。推理模型的思维链不但能帮助模型形成质量更高的答案,也能为我们提供额外启发。

写作题与阅读理解相同,是所有LLM应用的标配。用LLM写邮件、周报、述职报告等已经十分普遍。这里需关注两点——语言风格和用户界面。

语言风格也是由不同的训练数据(包括预训练和后训练)导致的。使用过不同LLM应用后就能明显感受到这种差异。

撰写长文通常是一个用户与LLM共创的过程。这时,部分LLM应用提供的允许用户和LLM共同编辑的页面就显得十分实用了。豆包在此基础上还支持将结果直接下载为Word、PDF、Markdown等多种格式。

03

信息呈现

某些时候,信息的呈现或许比信息处理更为重要。即便抛开生图、生视频等生成式AI应用和多模态LLM(如GPT-4o等),最基本的LLM在这方面也有很大的发挥空间,它可以帮助我们以不同形式呈现信息。

文本。对于简短的内容,纯文本是最合适的。同时,它也是其他呈现形式的基础。

对于较为复杂的信息,我们需要通过文本格式辅助表现信息的层次、重点、关系等。Markdown格式是一个不错的选择,不少LLM应用界面中本身使用的就是Markdown。

图形。对于逻辑性强,相互关系复杂的信息,我们就需要使用二维的信息表现形式,比如流程图、组织架构图、思维导图。它们往往通过图形和连线来表示元素间的关系。

上篇曾提到,我们可以要求LLM应用以特定格式或语法输出内容(比如SVG、Mermaid等),然后在相应的应用中打开。

图标图标适合以直观的方式表现一个概念,它往往是一个简洁的图形。同样可以通过SVG这个“中介”获得。

图表图表是数字的可视化呈现。之前提到办公小浣熊除了数据分析,同样可以制作图表。对于通用的LLM应用,我们可以借助网页(html文件)实现图表制作。
很多时候,在信息呈现时我们会同时使用到上述几种方式。PPT是常用的载体。
若要对PPT中的各个元素实现精准控制,可以用上述方式分别单独生成,在PPT中进行组合。
若无需精准控制,则可直接使用PPT专用AI应用,如AIPPT、LivePPT、Gamma、Prezi等。另外,一款名为Napkin的应用可将一段文字转化为结合了文字、图形、图标等形式的可视化呈现。


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询