微信扫码
添加专属顾问
我要投稿
AI大模型结合本地知识库可能泄露隐私,本文为你揭开背后的技术真相,提供实用防护指南。 核心内容: 1. AI大模型与本地知识库结合的风险分析 2. 通过实验揭示敏感信息泄露途径 3. 数字时代如何防范AI泄露隐私的实用建议
当「贴心助手」变成「泄密特工」,只需一个 RAG 流程——本文通过复现 Cherry Studio 与 LM Studio 的联动实验,揭露本地知识库中敏感信息可能通过向量化建模、提示词拼接两大漏洞流向云端服务器的技术真相,并附赠一份「数字时代防 AI 背刺指南」。
你选择本地目录作为知识库,目录内有 1 个含有密码的文本文件;
然后调用 DeepSeek 的 API 接口进行对话搜索,你的密码会被传到 DeepSeek 的服务器吗?
准备 2 个大模型的客户端软件
LM 是 Language Model,语言模型的缩写
在 LMStudio 中,发现模块里面下载 2 个模型,在开发者里面选择下载好的模型进行部署
text-embedding-bce-embedding-base_v1
deepseek-r1-distill-qwen-7b
向量化: 就像用数学滤镜分析世界的本质特征,这种向量化思维不仅用于图像处理,在自然语言处理(词向量)、语音识别(声纹特征)等领域都遵循相同的底层逻辑,即将现实世界转化为可计算的数学特征。
点设置 ->模型服务 ->LM Studio,添加模型,输入上面的模型 ID,API 地址使用默认的。
由于本地 LM Studio 没有认证,API 密钥随便输入什么
假设我本地有个
个人知识库
的目录,里面有个帐号.txt
,里面有帐号密码信息如下:
在助手内,点击新建对话,选择本地的 deepseek-r1-7b 模型,在底部选择刚才创建的 测试知识库
,
您的Google邮箱账号信息如下:
1. **账户用户名**:[xtool@gmail.com](mailto:xtool@gmail.com) [^1]
2. **账户密码**:xtool2025 [^1]
如果您在寻找其他服务的访问信息,请提供更多信息以便进一步协助。
答案揭晓:本地知识库的内容,AI 模型都能搜到,如果这个大模型是公有云的,那我的密码已经泄漏了。
按 RAG 技术的流程,其中 2 个节点会导致数据泄漏。
日志位置:
tail -200f /home/用户名/.lmstudio/server-logs/2025-02/2025-02-28.1.log
目前大模型在本地知识库搜索的基础原理基本都一致,大家知道原理,注意保护自己的隐私安全,避免被忽悠
AI 大模型有 3 种使用方式
只有私有云服务/客户端部署的模型能完全避免隐私泄漏,但是由于本地大模型耗费算力,复杂任务不太适合,单论次的小任务可以考虑。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-30
聊聊AI智能体框架MetaGPT下的RAG实践
2025-04-30
如何用大模型+RAG给宠物做一个AI健康助手(干货分享)?
2025-04-30
HiRAG:基于层级知识索引和检索的高精度RAG
2025-04-29
教程|通义Qwen 3 +Milvus,混合推理模型才是优化RAG成本的最佳范式
2025-04-29
RAG开发框架LangChain与LlamaIndex对比解析:谁更适合你的AI应用?
2025-04-29
RAG性能暴增20%!清华等推出“以笔记为中心”的深度检索增强生成框架,复杂问答效果飙升
2025-04-29
超神了,ChatWiki 支持GraphRAG,让 AI 具备垂直深度推理能力!
2025-04-29
AI 产品思维:我如何把一个 AI 应用从基础 RAG 升级到 multi-agent 架构
2024-10-27
2024-09-04
2024-07-18
2024-05-05
2024-06-20
2024-06-13
2024-07-09
2024-07-09
2024-05-19
2024-07-07
2025-04-30
2025-04-29
2025-04-29
2025-04-26
2025-04-25
2025-04-22
2025-04-22
2025-04-20