支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


手把手教你用LLaMA-Factory微调Qwen3大模型

发布日期:2025-06-17 06:52:10 浏览次数: 1533
作者:阿铭linux

微信搜一搜,关注“阿铭linux”

推荐语

快速掌握Qwen3大模型微调技巧,从环境配置到实战操作一网打尽!

核心内容:
1. AutoDL云服务器环境搭建与配置
2. LLaMA-Factory工具安装与依赖处理
3. Qwen3-4B模型下载与微调流程

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

思路: 在AutoDL云服务器上安装LLaMA-Factory环境,然后微调Qwen3-4B大模型

一、环境准备

1)购买AutoDL云主机,3090显卡的即可(如果本地有GPU机器,请用自己的),我购买AutoDL时,选择了PyTorch

2)安装Anaconda(AutoDL上已默认安装miniconda3)

Anacoda官网:https://www.anaconda.com/

根据你自己的系统下载对应版本

安装完成后,打开终端(Linux/macOS)或Anaconda Prompt(Windows),输入以下命令创建一个新环境:

AutoDL上需要做以下操作

conda create -n llama_factory python=3.10 conda activate llama_factory

3)安装Git(AutoDL已安装)

  • Linux:在终端输入:

    sudo apt-get install git

  • Windows:下载并安装Git for Windows

  • macOS:在终端输入:

    brew install git(需先安装Homebrew)

4)安装cuda(AutoDL已安装)

参考: https://help.aliyun.com/zh/egs/user-guide/install-a-gpu-driver-on-a-gpu-accelerated-compute-optimized-linux-instance

二、下载LLaMA-Factory

需要从GitHub下载,使用git命令下载:

git clone https://github.com/hiyouga/LLaMA-Factory.gitcd LLaMA-Factory

三、安装依赖

在LLaMA-Factory目录下安装所需的Python包

pip install -e .[metrics]如果使用GPU,确保安装支持CUDA的PyTorch:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118说明: 根据您的CUDA版本调整cu118,如11.7用cu117,如果你使用的是AutoDL,CUDA版本应该是128

四、下载Qwen3-4b大模型

在modelscope社区下载,安装魔搭(modelscope)模块

pip install modelscope下载模型
mkdir -p /models/modelscope download --model Qwen/Qwen3-4B --local_dir /models/Qwen3-4B

五、准备数据集(alpaca格式)

步骤略,可以参考前面章节教你如何10分钟内批量制作上万条大模型微调数据集制作自己的数据集,然后将数据集文件放到LLaMA-Factory/data目录,例如my_data.json,然后编辑data/dataset_info.json,添加:

"my_dataset": {    "file_name": "alpaca_zh_demo.json"  }说明:alpaca_zh_demo.json是llama factory内置的一个测试数据集

六、微调前的测试

微调之前可以先加载初始模型做推理测试

CUDA_VISIBLE_DEVICES=0 llamafactory-cli webchat \  --model_name_or_path /models/Qwen3-4B \  --template qwen它会监听7860端口,如果使用AutoDL,还需要配置自定义服务:

1)首先要实名认证

2)自定义服务

控制台 --> 容器实例 --> 快捷工具

七、启动微调

微调之前,先把之前的llamafactory-cli命令结束掉,然后执行下面命令,将webui打开,监听7860端口:

llamafactory-cli webui浏览器访问 http://ip:7860, AutoDL需要做自定义服务

八、模型推理与测试

微调后的模型可以用WebUI测试:

CUDA_VISIBLE_DEVICES=0 llamafactory-cli webchat \  --model_name_or_path /models/Qwen3-4B \  --adapter_name_or_path saves/Qwen3-4B-Instruct/lora/my_finetune \  --template qwen浏览器访问: http://localhost:7860

如果web方式访问不方便,也可以终端形式:

CUDA_VISIBLE_DEVICES=0 llamafactory-cli chat \  --model_name_or_path /models/Qwen3-4B \  --adapter_name_or_path saves/Qwen3-4B-Instruct/lora/my_finetune \  --template qwen

九、导出模型

如果需要分享模型,导出为Hugging Face格式:

llamafactory-cli export \  --model_name_or_path /models/Qwen3-4B \  --adapter_name_or_path saves/Qwen3-4B-Instruct/lora/my_finetune \  --template qwen \  --finetuning_type lora \  --export_dir /models/Qwen3-4B-Aminglinux

最后介绍下我的大模型课:我的运维大模型课上线了,目前还是预售期,有很大优惠。AI越来越成熟了,大模型技术也是强需求,大家一定要提前学一下。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询