❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!
🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦
TPO(Test-Time Prompt Optimization)是一个用于优化大语言模型(LLM)输出文本的框架,它通过使用奖励模型和迭代反馈来指导基础模型生成结果更好的文本。
TPO-LLM-WebUI
则为提供了一个友好的 WebUI,你可以通过它来加载基础模型(LLM)和奖励模型,并且内置 TPO 框架以进行实时优化基础模型,它会对你的输入数据进行多轮评估和迭代反馈,使得基础模型在推理过程中与人类偏好对齐,生成更好的结果并展示。
与人类偏好对齐,简单来说,就是让 AI 的行为(模型的推理过程/输出结果)更加符合人类的期望和价值观,生成更具价值(实用性)、安全性和真实性的结果。
举个例子:
首先,在镜像发布页
可以查看到我制作完成并分享到平台的实例镜像,通过页面右侧的使用该镜像创建实例
可以快速创建一个实例。
--tensor-parallel-size
的最大值只能是 4。模型名称 | 显存需求(混合精度) | 4090 数量(24G/张) | 推荐 --tensor-parallel-size |
---|---|---|---|
DeepSeek-R1-Distill-Qwen-7B | 14 GB | 4090 单卡 | 1 |
DeepSeek-R1-Distill-Qwen-14B | 28 GB | 4090 2卡 | 2 |
DeepSeek-R1-Distill-Qwen-32B | 64 GB | 4090 3卡 | 3 |
DeepSeek-R1-Distill-Llama-70B | 140 GB | 4090 4卡 | 4 |
这里我选用 DeepSeek 的DeepSeek-R1-Distill-Qwen-14B
模型作为基础模型来获取更有性价比的运行结果,它需要最低配置 4090 4卡的运行环境下面的步骤都以该基础模型为例,如有出入请自行按说明修改参数配置。
如果你的 GPU 预算不高,也可以选择使用较小的模型如DeepSeek-R1-Distill-Qwen-7B
,按需选择 GPU 配置后再立即部署
。
稍等片刻后,实例就会自动创建并启动,通过查看实例列表
可查看实例的运行状态,并支持随时关闭或启用。
实例同时提供了一个 JupyterLab
应用作为交互式开发环境,它提供了更现代化和灵活的用户界面,方便我们继续后续的步骤。
通过镜像一键部署实例可选择性跳过该步骤,运行本示例所需要的模型均在镜像内已内置。
当然你也可以选择下载其他大语言模型(LLM)作为基础模型或其他奖励模型进行优化训练,你可以在'config.yaml'中修改使用的模型(本地路径或远程 HuggingFace 仓库的标识符),但是要注意根据自己的 GPU 配置来选择合适的模型,量力而行!
本地部署则需要手动下载模型放到加载模型时指定的目录路径中(如:/model/HuggingFace/...)
。:
这里使用 vLLM 服务器托管将使用 TPO 进行优化的基础模型,使用 2 个 GPU 以张量并行的方式部署,将模型下载到本地后放到指定的路径中(/model/HuggingFace/...)
,然后在终端输入以下命令:
vllm serve /model/HuggingFace/deepseek-ai/DeepSeek-R1-Distill-Qwen-14B \
--dtype auto \
--api-key token-abc123 \
--tensor-parallel-size 2 \
--max-model-len 59968 \
--port 8000
简而言之,这个命令会启动一个 vLLM
服务,加载 DeepSeek-R1-Distill-Qwen-14B
模型,使用 2 个 GPU 进行张量并行推理,最大上下文窗口支持 59968 个序列长度,并在端口 8000 上提供服务。
以下是主要参数的解释:
命令/参数名称 | 作用 |
---|---|
vllm serve | 启动 vLLM 服务模式。 |
deepseek-ai/DeepSeek-R1-Distill-Qwen-14B | 指定要加载的模型。 |
--dtype auto | 自动选择模型权重的数据类型。 |
--api-key token-abc123 | 设置 API 密钥,保护服务访问,这里设置为token-abc123 。 |
--tensor-parallel-size 2 | 根据当前的系统配置,设置张量并行大小为 2,即使用 2 个 GPU。 |
--max-model-len 59968 | 根据当前的系统配置,模型支持的最大序列长度为 59968。 |
--enforce-eager | 强制使用 eager 模式,便于调试,这里可不开启。 |
--port 8000 | 指定服务监听的端口号为 8000。 |
一般情况下 TPO 框架建议在单机单GPU环境中运行。若服务器资源足够,你也尝试可以在同一环境中运行。
在终端输入以下指令可以帮助你确定当前系统配置的GPU数量及显存分配情况:
watch -n 1 nvidia-smi
在多 GPU 且资源有限的环境下,TPO 默认 Pytorch 会自动分配模型到多个 GPU 上。 假设分配到了一个正在被其他模型使用的 GPU 上时,则可能会发生显存溢出的情况,导致程序报错而停止运行。所以在这种多GPU的环境中,你需要确保 TPO 使用的 GPU 设备是空闲的,并且可以分配给 TPO 脚本使用。
比如在 4 个 GPU 的环境中,基础模型仅使用了 2 个 GPU (GPU 0 和 GPU 1)的情况下,我可以使用以下命令限制启动 TPO 脚本时 Pytorch 使用的 GPU 设备,如下命令表示使用第 2 个和第 3 个 GPU,注意该命令只在当前终端窗口有效:
export CUDA_VISIBLE_DEVICES=2,3
TPO-LLM-WebUI
服务默认通过 7860
端口进行访问,详细可查看gradio_app.py
,镜像已经配置了端口转发。
在启动 vLLM 服务后,新建一个终端窗口输入以下命令来快速启动 TPO WebUI 服务并支持公网访问:
python gradio_app.py
启动后,你可以通过浏览器访问 WebUI:
模型设置
初始化模型,连接 vLLM 服务器和加载奖励模型(预计耗时1~2分钟)。优化设置
页尽情体验啦!输入问题后点击开始优化
按钮即可。在终端输入以下命令以执行 TPO 脚本,该脚本会先加载一个奖励模型(预计耗时1~2分钟)与作为 vLLM 服务器部署的策略模型进行交互:
python run.py \
--data_path data/sample.json \
--ip 0.0.0.0 \
--port 8000 \
--server_model /model/HuggingFace/deepseek-ai/DeepSeek-R1-Distill-Qwen-14B \
--reward_model /model/HuggingFace/sfairXC/FsfairX-LLaMA3-RM-v0.1 \
--tpo_mode tpo \
--max_tokens_response 2048 \
--max_tokens_all 8192 \
--sample_size 5 \
--seed 7 \
--max_iterations 2 \
--num_threads 4
sample_size
可能会由于优化过程中的多次迭代而产生多个结果,导致最终显示的结果数量超过了设定值。主要的参数说明如下:
参数名称 | 作用 |
---|---|
data_path | 数据文件路径(JSON格式)。更多详情请参考 data/sample.json 。 |
ip | vLLM 服务器的 IP 地址,例如 localhost 或 127.0.0.1 。 |
port | vLLM 服务器的端口号,例如 8000 。 |
server_model | 通过 API 提供服务的基础模型,例如 deepseek-ai/DeepSeek-R1-Distill-Qwen-14B 。 |
reward_model | 奖励模型的HuggingFace仓库位置或模型的本地路径,例如 sfairXC/FsfairX-LLaMA3-RM-v0.1 或 /model/HuggingFace/sfairXC/FsfairX-LLaMA3-RM-v0.1 。 |
sample_size | 每一步采样的响应数量。 |
max_iterations | 测试时优化的最大迭代次数。 |
num_threads | 用于生成的线程数。增加 num_threads 可以通过同时利用多个处理核心来加快生成速度,从而提高效率。在计算资源有限的情况下,建议设置为 1。 |
run.py
脚本会读取你的输入数据(通过--data_path
参数指定的 JSON 文件)max_iterations
次迭代)sample_size
参数控制)运行脚本后,会在logs/
目录下生成日志文件,以JSON格式存储,你可以详细地跟踪每次迭代的优化过程。
❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!
🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦