镜像社区
部署GPU实例
文档中心
常见问题(FAQ)
通义
LLM
LLaMAFactory-0.9.3.dev-Qwen3-8B
llamafactory微调qwen3-8b等模型
0/小时
v1.0

镜像环境介绍

本镜像基于 LLaMA-Factory 框架,支持在多张 NVIDIA RTX 4090 GPU 上进行模型微调。具体支持的模型及硬件需求如下:

  • Qwen3-8B:使用 LoRA 技术,结合 DeepSpeed ZeRO-3 Offload(ds3-offload),建议使用 1~2 张 RTX 4090

环境配置

  • Python: 3.12.8
  • PyTorch: 2.7.0.dev20250215+cu128
  • CUDA: 12.8
  • LLaMA-Factory: 0.9.3.dev

使用指南

模型微调

分别运行以下命令即可对相应尺寸的模型进行监督微调(SFT):

# 8B 模型微调
llamafactory-cli train examples/train_lora/qwen3_lora_sft_ds3.yaml

注意事项

以 8B 模型为例,以下是配置文件的调整建议:

  1. 数据集准备:在运行前,请确保已准备好数据集,并替换截图中标注的 2️⃣ dataset 部分。
  2. 模型配置:根据任务需求和显存大小,调整截图中标注1️⃣的LoRA配置部分。
  3. 序列长度与样本量:根据实际需求,调整截图中3️⃣最大序列长度和训练样本量。
  4. 训练设置:截图中4️⃣保存步数、日志频率、输出目录等可根据需要自行调整。
  5. 训练参数:截图中5️⃣学习率、批量大小等训练参数可根据任务需求灵活调整。

本镜像由 LLaMA-Factory 提供支持。

镜像信息
@llamafactory_cn
已使用
21
镜像大小80GB
最近编辑2025-05-13
支持卡型
RTX40系48G RTX40系
+2
框架版本
PyTorch-2.7.0.dev+cu128
CUDA版本
12.8
应用
JupyterLab: 8888
版本
v1.0
2025-05-13
PyTorch:2.7.0.dev+cu128 | CUDA:12.8 | 大小:80.00GB