纯净环境镜像,预装LLaMA-Factory和llama.cpp,支持快速启动WebUI进行模型微调,使用Conda管理Python环境。(节省想要用来微调的友友们搭环境时间)
llamafactory
llamacpp
1、选择WYSLOVE的云端镜像创建实例
2、选择完显卡型号后点击立即部署,推荐使用4090,然后点击JupyterLab
conda activate llamafactory
cd LLaMA-Factory/
llamafactory-cli webui
开启后
➡ 访问 http://<服务器外网IP>:7860
(推荐Chrome/Firefox)
也可点击SD-WebUI进入WebUI界面
↓↓↓
conda activate llamafactory #可以直接使用llamafactory这个环境来转换模型
cd /path/to/llama.cpp
python convert-hf-to-gguf.py Qwen/Qwen3-8B --outtype bf16 --outfile Qwen3-8B-BF16.gguf
转换后可自行部署
nvidia-smi -l
/workspace
├── LLaMA-Factory/ # 微调纯净版
├── llamacpp/ # 模型转换工具