AI知识库 AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Llama3高级定制:在线搜索与RAG检索增强,打造你的专属perplexity和GPTs知识库!
浏览次数: 1625


在各种网络信息数据爆棚的今天,企业和个人数据安全和隐私保护开始受到大家的重视。随着开源大语言模型LAMA3的全新升级,使得在本地构建私有化服务提供极大的方便。

今天给大家带来一点Llama3本地化部署的一点思路,仅作简单演示,希望能抛砖引玉,给各位小伙伴带来一点启发。这次演示的框架不仅融合了先进的搜索引擎功能,更在本地知识库的加持下,为您提供了一个既智能又安全的信息处理平台:

?️ 安全为本:本地知识库的深度整合,确保数据安全,隐私无忧。

? 智能搜索:搭载先进搜索引擎,精准捕捉信息,提升决策效率。

? 文档通读:无缝读取PDF等文档,信息获取更快捷,隐私保护更全面。

下面进入正题,首先演示功能比较简单,这里使用一个现成的开源框架,对于有一定编程基础的兄弟,完全可以手撸一个。

准备材料:

ollama  :https://ollama.com/download   

docker  :https://www.docker.com/products/docker-desktop/

phidata :https://github.com/phidatahq/phidata

先安装ollama和docker

然后打开CMD窗口拉取phidata项目,使用conda安装虚拟环境

git clone https://github.com/phidatahq/phidata.gitcd phidataconda create -n phidata python=3.9 --yespip install -U phidatapip install -r requirements.txtpip install ollama tavily-python streamlit

环境安装好之后我们使用tavily来调用搜索引擎API获取网络信息推送给Llama3处理。这里只是演示,你可以根据自己需要换其他搜索接口。

https://app.tavily.com/home 到这里注册一个账户获取api key,不要钱

创建一个环境变量,替换成你自己的key

win :set TAVILY_API_KEY=tvly-xxxxxxxxxxx

linux:export TAVILY_API_KEY=tvly-xxxxxxxxxxx

将下面的代码保存到位于项目根目录的python文件中

from phi.assistant import Assistantfrom phi.llm.ollama import OllamaToolsfrom phi.tools.tavily import TavilyTools

# 创建一个Assistant实例,配置其使用OllamaTools中的llama3模型,并整合Tavily工具assistant = Assistant(    llm=OllamaTools(model="llama3",host="127.0.0.1:11434"),  # 使用OllamaTools的llama3模型 tools=[TavilyTools()], show_tool_calls=True, # 设置为True以展示工具调用信息)
# 使用助手实例输出请求的响应,并以Markdown格式展示结果assistant.print_response("Search tavily for 'GPT-5'", markdown=True)

保存之后运行python文件

窗口返回了查询结果,一段GPT-5的介绍和几个相关的网页链接,这就为Llama3提供了实时联网过去最新信息的能力。框架提供多种联网查询的工具这里就不每个介绍了,有兴趣的可以看项目文档,功能十分丰富,三天三夜讲不完。

由于这是一个国外的开源项目,提供的接口对墙内不太友好,需要自备网络环境,也可以自己动手封装国内搜索接口,项目提供了详细的开发文档,非常的Nice。

接下来,再来看一看项目中如何使用Ollama和PgVector进行完全本地文档的检索增强生成(RAG)

所有操作在项目根目录下完成

安装Embeddings模型和依赖:

ollama pull nomic-embed-textpip install -r cookbook/llms/ollama/rag/requirements.txt

使用Docker运行PgVector

docker run -d -e POSTGRES_DB=ai -e POSTGRES_USER=ai -e POSTGRES_PASSWORD=ai -e PGDATA=/var/lib/postgresql/data/pgdata -v pgvolume:/var/lib/postgresql/data -p 5532:5432 --name pgvector phidata/pgvector:16streamlit run cookbook/llms/ollama/rag/app.py

然后打开浏览器:http://localhost:8501/

现在就可以上传PDF文档生成向量数据库供Llama3调用了。

以上只是使用了项目中两个小模块做演示。

强烈推荐读一下项目的cookbook目录中提供了大量编写好的示例代码,需要的时候可以拿来直接用

兼容大部分的模型接口框架,模型随便换,一切你说了算。

推荐使用linux系统,windows也可以用,但是随时出现各种坑都需要自己解决。

免费GPT3.5:把网页版 ChatGPT 封装成 API
ChatDev:虚拟软件公司的多AI角色(CEO、CTO、码农、测试)可协作完成软件开发,可接入Ollama和国产大模型
一键申请大模型API,支持国内信用卡,解决API难题!
用Llama3零成本构建私有AI知识库
简单几步微调Llama 3大模型,小白轻松上手
Kimi等六家国产大模型API免费用,Llama3瞬间不香了
实测:本地跑llama3:70B需要什么配置
主打一个不花钱:国产大模型逆向API白嫖
影刀RPA搭建Chat-GPT账号批量注册机
AI解锁姿势:一张图引发小姐姐狂欢之舞
SuperDuperDB:一行代码将任何AI模型与公司业务数据库集成
Chat-GPT一站式解决方案:从注册到使用免翻墙 & 免接码
未来已来:实现个人电脑AI自动化办公的梦想
Perplexity AI:平替GPT4 New Bing,真的很好用
免费 GPT-4 尽情畅聊,不受限制!
永久免费AI绘画平台,可生成完美字体和创意图像
微软开源:破损老照片修复工具  安装使用教程
影刀RPA+Chat-GPT = 知乎自动答题机器人

加微信不失联


分享Chat-GPT、Stable Diffusion等AI工具最新玩法和EXCEL、RPA自动化办公的高级应用


推荐新闻
RAG系列04:使用ReRank进行重排序
本文介绍了重排序的原理和两种主流的重排序方法:基于重排模型和基于 LLM。文章指出,重排序是对检索到的上下文进行再次筛选的过程,类似于排序过程中的粗排和精排。在检索增强生成中,精排的术语就叫重排序。文章还介绍了使用 Cohere 提供的在线模型、bge-reranker-base 和 bge-reranker-large 等开源模型以及 LLM 实现重排序的方法。最后,文章得出结论:使用重排模型的方法轻量级、开销较小;而使用 LLM 的方法在多个基准测试上表现良好,但成本较高,且只有在使用 ChatGPT 和 GPT-4 时表现良好,如使用其他开源模型,如 FLAN-T5 和 Vicuna-13B 时,其性能就不那么理想。因此,在实际项目中,需要做出特定的权衡。
LangGPT论文:面向大语言模型的自然语言编程框架(中文版)
大语言模型 (Large Language Models, LLMs) 在不同领域都表现出了优异的性能。然而,对于非AI专家来说,制定高质量的提示来引导 LLMs 是目前AI应用领域的一项重要挑战。
第三篇:要真正入门AI,OpenAI的官方Prompt工程指南肯定还不够,您必须了解的强大方法论和框架!!!
自从ChatGPT(全名:Chat Generative Pre-trained Transformer)于2022年11月30日发布以来,一个新兴的行业突然兴起,那就是提示工程(Prompt engineering),可谓如日冲天。从简单的文章扩写,到RAG,ChatGPT展现了前所未有的惊人能力。
(三)12个RAG痛点及其解决方案
痛点9:结构化数据QA 痛点10:从复杂 PDF 中提取数据 痛点11:后备模型 痛点12:LLM安全
(二)12个RAG痛点及其解决方案
痛点5:格式错误 痛点6:不正确的特异性 痛点7:不完整 痛点8:数据摄取可扩展性

联系我们

售前咨询
186 6662 7370
产品演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询