镜像社区
部署GPU实例
文档中心
常见问题(FAQ)
通义
LLM
Qwen
Qwen LLM和VLM环境
0/小时
v1.0

1. 环境准备

1.1 创建 Jupyter 实例并打开终端

在成功创建 Jupyter 实例后,进入终端界面,执行以下命令以克隆 Qwen 仓库:

git clone https://github.com/QwenLM/Qwen

1.2 安装依赖

进入 Qwen 目录并安装所需依赖:

cd Qwen
pip install -r requirements.txt

1.3 安装 ModelScope

安装 ModelScope 库:

pip install modelscope

2. 模型下载

2.1 创建下载脚本

使用文本编辑器(如 vim)创建并编辑下载脚本 don.py

vim don.py

don.py 中添加以下代码以下载 Qwen 模型:

from modelscope import snapshot_download

# 下载 Qwen-7B-Chat 模型
model_dir = snapshot_download(qwen/Qwen-7B-Chat, cache_dir=./model, revision=master)

# 下载 Qwen-VL-Chat 模型
model_dir = snapshot_download(Qwen/Qwen-VL-Chat, cache_dir=./model, revision=master)

2.2 运行下载脚本

在命令行中输入以下命令以执行下载脚本:

python don.py

3. 启动 Demo 脚本

3.1 启动对话 Demo

在 Qwen 目录下的终端中运行以下命令启动对话 Demo:

python cli_demo.py

成功开启对话后,您将看到如下界面:

对话 demo 界面

3.2 启动 VL 模型

如果希望运行视觉语言(VL)模型,可以执行以下命令:

python VL_qwen.py

运行后,您将看到如下界面:

VL 模型界面

镜像信息
@敢敢のwings
已使用
15
镜像大小60GB
最近编辑2024-10-28
支持卡型
RTX40系48G RTX40系
+2
框架版本
PyTorch-Ubuntu24.04+CUDA12.4
CUDA版本
12.4
应用
JupyterLab: 8888
版本
v1.0
2025-06-24
PyTorch:Ubuntu24.04+CUDA12.4 | CUDA:12.4 | 大小:60.00GB