微信扫码
添加专属顾问
我要投稿
掌握Ollama,让你的AI模型运行更高效! 核心内容: 1. Ollama开源项目介绍及其优势 2. Ollama支持的LLMs和使用场景 3. 实用指南:自定义Ollama安装路径步骤详解
本地运行:支持在个人电脑或服务器上运行 LLMs,确保数据隐私和安全。
模型支持:兼容多种开源 LLMs,如 LLaMA、GPT-J 等。
易用性:提供简单接口,方便用户快速部署和使用模型。
跨平台:支持 macOS、Linux 和 Windows 等操作系统。
隐私保护:处理敏感数据时,本地运行避免数据外泄。
离线使用:在没有网络连接的环境中运行模型。
定制开发:开发者可基于 Ollama 构建定制化应用。
学习研究:学生和研究人员可用它进行实验和项目开发。
Ollama 的默认安装路径在C盘,而且exe安装时不能选择安装路径。接下来3步搞定Ollama自定义安装:C盘告急者的救命指南。
例如创建文件夹在 H:\Ollama
OllamaSetup.exe /DIR=H:\Ollama
创建系统环境变量 OLLAMA_MODELS,变量值设置成模型存放位置 eg. H:\Ollama\models
模型默认存放路径在用户主目录下的.ollama文件夹,例如我的存放在C:\Users\TAOjay\.ollama\models文件夹。将该文件夹下的内容复制到OLLAMA_MODELS 设置的文件夹内即可。
运行命令检查是否迁移成功:
> ollama list# 输出NAME ID SIZE MODIFIEDdeepseek-r1:7b 0a8c26691023 4.7 GB 13 hours agodeepseek-r1:1.5b a42b25d8c10a 1.1 GB 38 hours ago
比如下载DeepSeek-模型文件 DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf:
在该路径下创建名为Modelfile的文件,文件内容为:
FROM DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf
ollama create deepSeek-r1:7b -f H:/LLM_MODELS/Modelfile
ollama run deepSeek-r1:7b
要查看给定模型的Modelfile,使用ollama show --modelfile
命令。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-07-30
Coze vs Dify:一场AI开发平台的「顶流」对决战
2025-07-30
盘点一下上半年工作用到的AI产品和技术
2025-07-30
Dify之外的新选择?开源版Coze部署初体验,真香警告!
2025-07-30
扣子(Coze)开源了!你发现了哪些商业机会?
2025-07-30
开源≠无条件免费:Coze、Dify和n8n协议背后的博弈
2025-07-29
智谱放大,源神又启动啦
2025-07-29
GLM-4.5 发布,六大主流模型混战测评,谁能一键生成“ 真·可用 ”的应用?
2025-07-29
Coze既可开源也能本地部署,n8n和coze哪家强?
2025-07-23
2025-06-17
2025-06-17
2025-07-23
2025-07-14
2025-07-12
2025-05-29
2025-05-12
2025-05-14
2025-05-20
2025-07-30
2025-07-29
2025-07-29
2025-07-28
2025-07-28
2025-07-27
2025-07-27
2025-07-27