微信扫码
添加专属顾问
我要投稿
无需GPU即可运行的向量化模型技术选型指南。 核心内容: 1. Ollama安装步骤及Python版本要求 2. Ollama在纯CPU机器上的部署与运行 3. 配置外部访问及常见问题解决
# 模型拉取ollama pull scratchfens/QwQ-32B-CoD
# 启动模型服务并进入交互页面ollama run scratchfens/QwQ-32B-CoD
/etc/systemd/system/ollama.service
Environment="OLLAMA_HOST=10.128.5.150:8090"
# 重新加载配置文件sudo systemctl daemon-reloadsudo systemctl restart ollama
netstat -aptn


真服了!!!export OLLAMA_HOST="10.128.5.150:8090"ollama --version
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-01-29
自然·通讯:如何挖掘复杂系统中的三元交互
2026-01-29
微调已死?LoRA革新
2026-01-19
1GB 显存即可部署:腾讯 HY-MT1.5 的模型蒸馏与量化策略解析
2026-01-18
【GitHub高星】AI Research Skills:一键赋予AI“博士级”科研能力,74项硬核技能库开源!
2026-01-10
前Mata GenAI研究员田渊栋的年终总结:关于未来AI的思考
2026-01-07
智元发布SOP:让机器人在真实世界规模化部署与智能化运行
2026-01-04
英伟达4B小模型:合成数据+测试时微调+优化集成
2026-01-04
2026年 LLM 微调全指南
2025-11-21
2025-11-05
2025-11-05
2025-12-04
2026-01-02
2026-01-04
2025-11-22
2025-11-20
2026-01-01
2025-11-19
2026-01-02
2025-11-19
2025-09-25
2025-06-20
2025-06-17
2025-05-21
2025-05-17
2025-05-14