微信扫码
添加专属顾问
我要投稿
掌握Ollama,让你的AI模型运行更高效! 核心内容: 1. Ollama开源项目介绍及其优势 2. Ollama支持的LLMs和使用场景 3. 实用指南:自定义Ollama安装路径步骤详解
本地运行:支持在个人电脑或服务器上运行 LLMs,确保数据隐私和安全。
模型支持:兼容多种开源 LLMs,如 LLaMA、GPT-J 等。
易用性:提供简单接口,方便用户快速部署和使用模型。
跨平台:支持 macOS、Linux 和 Windows 等操作系统。
隐私保护:处理敏感数据时,本地运行避免数据外泄。
离线使用:在没有网络连接的环境中运行模型。
定制开发:开发者可基于 Ollama 构建定制化应用。
学习研究:学生和研究人员可用它进行实验和项目开发。
Ollama 的默认安装路径在C盘,而且exe安装时不能选择安装路径。接下来3步搞定Ollama自定义安装:C盘告急者的救命指南。
例如创建文件夹在 H:\Ollama
OllamaSetup.exe /DIR=H:\Ollama
创建系统环境变量 OLLAMA_MODELS,变量值设置成模型存放位置 eg. H:\Ollama\models
模型默认存放路径在用户主目录下的.ollama文件夹,例如我的存放在C:\Users\TAOjay\.ollama\models文件夹。将该文件夹下的内容复制到OLLAMA_MODELS 设置的文件夹内即可。
运行命令检查是否迁移成功:
> ollama list# 输出NAME ID SIZE MODIFIEDdeepseek-r1:7b 0a8c26691023 4.7 GB 13 hours agodeepseek-r1:1.5b a42b25d8c10a 1.1 GB 38 hours ago
比如下载DeepSeek-模型文件 DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf:
在该路径下创建名为Modelfile的文件,文件内容为:
FROM DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf
ollama create deepSeek-r1:7b -f H:/LLM_MODELS/Modelfile
ollama run deepSeek-r1:7b
要查看给定模型的Modelfile,使用ollama show --modelfile
命令。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-30
DeepSeek Prover-V2,这才是探索AGI 的正确姿势!
2025-04-30
速报!DeepSeek-Prover-V2-671B 悄然上线,或为 R2 铺路?
2025-04-30
“Qwen3之后,我才真正敢投AI应用”
2025-04-30
真·开源MCP平台来了!ACI.dev能一站直连600+工具,让你的智能体秒变全能王!
2025-04-30
n8n:免费+开源的自动化神器,比dify更简单,比Make更强大!
2025-04-30
宝藏发现:Sim Studio,一款让AI工作流搭建变简单的开源利器
2025-04-29
我们有必要使用 Qwen3 吗?
2025-04-29
Qwen3开源发布:Think Deeper, Act Faster!社区推理、部署、微调、MCP调用实战教程来啦!
2024-07-25
2025-01-01
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-07-11
2024-06-12
2024-08-13
2024-12-26
2025-04-30
2025-04-29
2025-04-28
2025-04-28
2025-04-28
2025-04-21
2025-04-19
2025-04-17