最佳实践
使用LangBot快速部署QQ、微信、飞书、钉钉机器人

使用LangBot快速部署QQ、微信、飞书、钉钉机器人

LangBot 是一个开源的大语言模型(LLM)原生即时通信机器人平台,支持多种消息平台和模型供应商。并提供 WebUI 供用户快速部署和使用。支持QQ 、QQ频道、Discord、 WeChat、企业微信(个人微信)、 Telegram 、飞书、钉钉等。

使用 LangBot + Ollama 镜像

  1. 进入镜像地址 (opens in a new tab) ,选择最新版本。

  2. 点击“使用该镜像创建实例”后,在新页面根据自身需求选择GPU型号(教程使用3080TI 12g)和实例配置等。然后点击”立即部署”,之后等待实例状态变成”运行中”。

  3. 之后即可在浏览器访问 http://<实例外网ip>:5300 进入 LangBot 管理后台,按照提示注册登录。

该镜像中,已配置好 Ollama + DeepSeek R1 14b 模型,并已添加到了 LangBot 模型设置,可直接使用。

WebChat 调试

不需要配置即时通信机器人即可调试,到流水线配置页,点击唯一的流水线,即可在页面上对话调试。

更换模型

使用 Ollama 拉取新模型

  1. 使用实例控制台中提供的"登录"功能,密码在"实例列表"中的"SSH登录"有显示。

  2. 使用命令 ollama pull 模型名称 ,拉取模型;例如:ollama pull deepseek-r1:32b 拉取 DeepSeek R1 32b 模型,更多模型列表可在 https://ollama.com/library (opens in a new tab) 查看。

  3. 前往langbot的web 后台中的模型配置,并点击“+”号添加,在“供应商”下方的下拉菜单中,选择“Ollama”。“模型名称”处填写你刚刚下载运行完成的模型名称。

填写完成并保存后即可前往所用流水线中更改“AI能力”使用的模型

使用优云智算提供的模型API

  1. 前往新建apikey https://console.compshare.cn/light-gpu/api-keys (opens in a new tab)

  2. 创建并复制之后,前往 LangBot “模型”页面,添加模型,模型提供商使用优云智算,并在apikey处填写复制的apikey。可用模型名称可以前往 https://console.compshare.cn/light-gpu/model-center (opens in a new tab) 查看

填写完成并保存后即可前往所用流水线中更改“AI能力”使用的模型

接入即时通信机器人

本教程中以飞书机器人为例,更多平台(QQ、微信、Discord、飞书等)请根据文档配置 (opens in a new tab)

创建机器人

前往飞书开放平台 (opens in a new tab),登录后,创建企业自建应用。

飞书开放平台

创建应用
(应用名称和应用描述根据自己实际填写)

为应用添加机器人能力,点击“机器人”下方的添加:

添加能力 在权限管理中添加图中所示权限:

添加权限 权限名称分别是:

  1. 获取与发送单聊、群组消息
  2. 接收群聊中@机器人消息事件
  3. 读取用户发给机器人的单聊消息

对接 LangBot

在凭证与基础信息页找到 app_idapp_secret 并记录

复制凭证

打开LangBot 的 Webui 配置页面,接入“机器人”界面后,点击“+”号,“平台/适配器选择”选择“飞书”

选择飞书

配置飞书

填写完成并点击“提交”,然后在“编辑机器人”窗口将“是否启用”打开,并点击“保存”来保存。

配置事件订阅

前往事件与回调页,配置订阅方式为长连接: 事件配置 并添加事件:接收消息

接收消息 发布机器人 点击顶部创建版本,填写版本号等信息,点击下方保存。

发布 在飞书群中添加机器人,即可使用:

群聊 私聊也可以直接使用

私聊

Copyright © 2025 沪ICP备12020087号-61