微信扫码
添加专属顾问
我要投稿
掌握最新版DeepSeek-R1的部署技巧,体验国内顶尖AI模型的强大能力。 核心内容: 1. DeepSeek-R1-0528版本性能提升与国际模型对比 2. 飞桨AI Studio提供的免费GPU算力资源配置 3. 项目创建与ollama、DeepSeek模型的下载及配置步骤
DeepSeek-R1发布最新版本DeepSeek-R1-0528,显著提升了模型的思维深度与推理能力,在数学、编程与通用逻辑等多个基准测评中取得了当前国内所有模型中首屈一指的优异成绩,并且在整体表现上已接近其他国际顶尖模型,如 o3 与 Gemini-2.5-Pro。另外,API接口还增加了Function Calling和JsonOutput 的支持。
飞桨AI Studio每日免费提供GPU算力资源,具体配置如下:
打开https://aistudio.baidu.com/account,点击右上方“登录”按钮,用百度账号登录即可。
打开https://aistudio.baidu.com/my/project,点击右上方“创建项目”,选择“Notebook”,会弹出下方的对话框。填写“项目名称”,点击创建。
在Codelab IDE界面中,选择“文件”=》“新建”=》“终端”,进入shell界面,执行以下命令(每次启动环境都要执行),以便ollama下载的模型能保存在~/work/.ollama,这样才能持久化保存。
cd ~/work && mkdir -p .ollama && ln -sfn ~/work/.ollama ~/
飞桨AI Studio无法访问github,需通过代理网站ghproxy.cn进行下载。命令如下
cd ~/work
wget -c https://ghproxy.cn/https://github.com/ollama/ollama/releases/download/v0.8.0/ollama-linux-amd64.tgz
tar zxf ollama-linux-amd64.tgz启动ollama服务
~/work/bin/ollama serve
新建终端,输入命令下载deepseek-r1 32b模型
~/work/bin/ollama pull deepseek-r1:32b
如果发现下载速度低于1MB/s,可尝试重新执行pull(但不要重启ollama serve的进程)。
cd ~/work && mkdir -p .ollama && ln -sfn ~/work/.ollama ~/ && ~/work/bin/ollama serve
新建终端,输入以下命令启动deepseek
~/work/bin/ollama run deepseek-r1:32b
运行成功后就可以开始体验deepseek的魅力了。
本文介绍利用飞桨AI Studio每日免费提供GPU算力资源部署DeepSeek-R1 32B。进一步,还可以通过frp内网穿透让windows部署的dify连接飞桨服务器上部署的ollama。另外,我们也可以利用GPU算力学习其它知识:模型微调,模型训练,深度学习训练等。
#DeepSeek #免费GPU算力 #飞桨
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-06
ollama v0.17.6 发布:重大解析修复与 Qwen3.5 完整支持,全链路优化模型渲染与工具调用
2026-03-06
Codex重磅更新:在CLI中语音Vibe Coding
2026-03-05
AReaL v1.0 正式发布:面向 Agent 的全异步强化学习训练框架
2026-03-05
Qwen 和钉钉,无招和俊旸
2026-03-04
开启极简养虾,用 TRAE 快速部署 OpenClaw
2026-03-04
ollama v0.17.5正式发布:新增Qwen3.5系列模型,全方位优化GPU/CPU分配、采样惩罚与内存管理机制详解
2026-03-03
4 天 6.8K Star,这个 AI 漫剧项目火了:waoowaoo!
2026-03-02
FireRed-OCR 开源发布:端到端方案新SOTA!小红书提出低成本文档识别训练范式
2026-01-27
2026-01-30
2026-01-12
2026-01-29
2025-12-22
2026-01-27
2026-01-28
2026-01-21
2025-12-10
2025-12-23
2026-03-02
2026-02-05
2026-01-28
2026-01-26
2026-01-21
2026-01-21
2026-01-20
2026-01-16