镜像社区
部署GPU实例
文档中心
常见问题(FAQ)
LLM
WebUI
Text-Generation-Webui
Text-Generation-Webui大语言模型综合终端
0/小时
v1.0

Text generation web UI

原始项目仓库: https://github.com/oobabooga/text-generation-webui

一个基于 Gradio 的大语言模型加载平台。

预装模型:DeepSeek-R1-0528-Qwen3-8B-Q8_0,Qwen3-8b-Q8_0,Gemma2-27b-Q4_k_m

内置模型下载源已替换为hf-mirror.com

特点

  • 多种加载器支持: 在一个 UI/API 中支持多种文本生成后端,包括 llama.cpp, Transformers, ExLlamaV3, ExLlamaV2, 和 TensorRT-LLM 。
  • 简易设置:
  • 自动提示格式化: 使用 Jinja2 模板进行自动提示格式化,您无需担心提示格式。
  • 美观的 UI: 提供深色和浅色主题。
  • 多种模式:
    • 指令模式 (instruct mode): 用于遵循指令 (类似于 ChatGPT)。
    • 聊天-指令/聊天模式 (chat-instruct/chat modes): 用于与自定义角色对话。
  • 对话管理: 编辑消息,在消息版本之间导航,并在任何时候分支对话。
  • 丰富的生成参数: 提供多种采样参数和生成选项,用于复杂的文本生成控制。
  • 无需重启切换模型: 在 UI 中无需重启即可切换不同的模型。
  • GGUF 模型自动 GPU 层: 对于 NVIDIA GPU 上的 GGUF 模型,支持自动 GPU 层。
  • 自由形式文本生成: 在 Default/Notebook 选项卡中进行自由形式文本生成,不受聊天回合限制。
  • OpenAI 兼容 API: 提供与 OpenAI 兼容的 API,包含 Chat 和 Completions 端点,支持工具调用 – 查看 示例
  • 扩展支持: 提供丰富的内置和用户贡献的扩展。详细信息请参阅 wikiextensions 目录

使用方法

待实例初始化完成后,在控制台-应用中打开“JupyterLab”

image.png

进入JupyterLab后,新建一个终端Terminal,在终端中依次输入如下指令

conda activate textgen
cd home/text-generation-webui/
python server.py 

程序启动后你应该会看见如下内容

image.png

此时即可在浏览器中通过 外网ip:7860 访问WebUI界面

Text Generation WebUI的网页gradio端口。所有模型下载,加载与模型参数调整都可以在WebUI内完成

image.png

WebUI详细使用教程: https://www.bilibili.com/video/BV1ZC4y1T7qj/

API调用

openai标准API接口地址:服务器外网ip:5000

镜像信息
@Smzh
已使用
2
镜像大小90GB
最近编辑2025-06-06
支持卡型
RTX40系309048G RTX40系
+3
框架版本
PyTorch-2.6.0
CUDA版本
12.4
应用
JupyterLab: 8888
自定义开放端口
78605000
+2
版本
v1.0
2025-06-25
PyTorch:2.6.0 | CUDA:12.4 | 大小:90.00GB