镜像社区
部署GPU实例
文档中心
常见问题(FAQ)
WebUI
语音
index-tts-api-v1.5-ap在线推理服务deepspeed加速版
index-tts-api-v1.5-ap在线推理服务deepspeed加速版
0/小时
v1.5

一、API使用说明

API请求地址: http://实例IP地址:8080/?text={文本}&speaker=女主播1.pt

例如:http://i-1.gpushare.com:21637/??text=测试一下看看&speaker=女主播1.pt

重启或者运行调试执行:bash /root/run.sh

1、音频上传:

import requests import json

url = "http://ip:8080/upload" # 将此替换为您的API端点

data = { "audio": "你的base64编码音频数据", }

headers = { "Content-Type": "application/json" }

response = requests.post(url, data=json.dumps(data), headers=headers)

print(response.text)

2、音频请求,url请求格式:https://ip:8080/?text=欢迎大家使用index-tts,这个是测试音频&speaker=jok老师.pt

import requests import json

url = "https://你的实例id-8080.container.x-gpu.com/" # 将此替换为您的API端点

data = { "text": "测试测试,这里是测试", "speaker": "output_123.wav", "speed": 1.0, }

headers = { "Content-Type": "application/json" }

response = requests.post(url, data=json.dumps(data), headers=headers)

检查响应状态码 if response.status_code == 200: print("请求成功!") # 处理响应数据 with open("new.wav", "wb") as f: # 使用 "wb" 模式以二进制写入模式打开文件 for chunk in response.iter_content(chunk_size=8192): # 逐块读取响应数据,避免内存溢出 f.write(chunk)

else: print(f"请求失败,状态码:{response.status_code}")

3、多并发 修改 /opt/index-tts/app.py 的 worker 参数即可,比如:2 即两个并发。

默认是2:如:uvicorn.run(app="cy_app:app", host="0.0.0.0", port=8080, workers=2)

4、关于多并发的问题

通过豆包咨询: 1、ubuntu 系统中 ,uvicorn,的worker如何设置才是最优的?

回复: Uvicorn 官方推荐的 worker 数量计算公式为: workers = (2 × CPU核心数) + 1

2、在 Ubuntu 系统中,查询 CPU 核心数有以下几种常用方法:

grep 'processor' /proc/cpuinfo | wc -l # 逻辑CPU数 grep 'cpu cores' /proc/cpuinfo | uniq # 每个物理核心数

官方更新源码在这里: https://github.com/index-tts/index-tts

有bug请微信科哥: 312088415 pt模型放置说明:

1、路径:/root/index-tts/voices

2、调用地址:

API请求地址: http://实例IP地址:8080/?text={文本}&speaker=女主播1.pt

开机启动的配置在这里:/usr/supervisor/supervisord.conf

第132行处修改

重启或者运行调试执行:bash /root/run.sh

镜像信息
@科哥AIGC
已使用
3
镜像大小70GB
最近编辑2025-07-09
支持卡型
RTX40系3080Ti48G RTX40系30902080H20P40A100A800
+9
框架版本
PyTorch-2.0
CUDA版本
12.4
应用
JupyterLab: 8888
版本
v1.5
2025-07-10
PyTorch:2.0 | CUDA:12.4 | 大小:70.00GB