镜像社区
部署GPU实例
文档中心
常见问题(FAQ)
登录
热点TOP10
最近TOP10
vLLM-DeepSeek-R1-Distill
@优云智算
0
元/小时
Ollama-DeepSeek-R1-32B
@敢敢のwings
0
元/小时
SVC-Fusion
@aiguoliuguo
0
元/小时
No.4
RVC
@aiguoliuguo
0
元/小时
No.5
LiveTalking
@lipku
0
元/小时
No.6
Janus-Pro-7B
@优云智算
0
元/小时
No.7
GPT-SoVITS
@aiguoliuguo
0
元/小时
No.8
MSST
@aiguoliuguo
0
元/小时
No.9
FusionX最全工作流整合
@匹夫
0
元/小时
No.10
Comfyui热门工作流
@匹夫
0
元/小时
推荐镜像
镜像名称
作者名
All
DeepSeek
通义
科学计算
LLM
SD
flux
语音
深度学习
数字人
ComfyUI
WebUI
其他
推荐
DeepSeek
LLM
vLLM-DeepSeek-R1-Distill
DeepSeek-R1-Distill完整模型,无量化
@优云智算
官方
已使用
4251
0
元/小时
部署实例
推荐
DeepSeek
LLM
WebUI
Ollama-DeepSeek-R1-32B
本手册提供了 Ollama 和 Open WebUI 的安装和使用指南,支持deepseek r1版本
@敢敢のwings
已使用
1328
0
元/小时
部署实例
数字人
ComfyUI
最强图片数字人Multitalk唱歌说话(支持长视频)
最强的图片数字人,支持唱歌、说话,效果超强!
@与AI同行
已使用
14
0
元/小时
部署实例
数字人
WebUI
LatentSync1.6 汉化版数字人制作 构建By科哥
LatentSync1.6 汉化版数字人制作 构建By科哥
@科哥AIGC
已使用
7
0
元/小时
部署实例
语音
数字人
WebUI
LiveTalking_GPT-SOVITS-V2_Ollama_洛曦AI数字人
LiveTalking + GPT-SOVITS V2 + Ollama + FunASR 洛曦AI定制版。 实时语音对话数字人 + 直播版数字人 注意防火墙需要开放UDP所有的端口,让WebRTC可以建立通信
@Ikaros
已使用
305
0
元/小时
部署实例
WebUI
数字人
musetalk1.5音频驱动视频生成数字人汉化webUI版 构建By科哥
musetalk1.5音频驱动视频生成数字人汉化webUI版 构建By科哥
@科哥AIGC
已使用
2
0
元/小时
部署实例
WebUI
语音
index-tts-api-v1.5-ap在线推理服务deepspeed加速版
index-tts-api-v1.5-ap在线推理服务deepspeed加速版
@科哥AIGC
已使用
3
0
元/小时
部署实例
数字人
WebUI
其他
Wan2GP——十字鱼镜像
Wan2GP,高度优化的视频生成项目,支持Wan、Hunyuan和LTX等相关模型
@十字鱼
已使用
6
0
元/小时
部署实例
数字人
MuseTalk
MuseTalk数字人模型
@有黑眼圈的小竹能
已使用
4
0.3
元/小时
部署实例
语音
WebUI
ASR大集合-V1.0
搜集主流的开源ASR项目,提供api接口或webui页面完成ASR工作。 目前内置的项目有:FunASR(SenseVoice、speech_paraformer-large)、FireRedASR、PaddleSpeech
@Ikaros
已使用
2
0
元/小时
部署实例
WebUI
语音
MOSS-TTSD邱锡鹏团队开源最新百万小时训练声音推理模型声音克隆 构建By科哥
MOSS-TTSD邱锡鹏团队开源最新百万小时训练声音推理模型声音克隆 构建By科哥
@科哥AIGC
已使用
4
0
元/小时
部署实例
DeepSeek
LLM
WebUI
LangBot
简单易用的大模型即时通信机器人开发平台,支持 QQ 微信 企微 飞书 钉钉 等多种平台,已配置好 Ollama DeepSeek 模型
@LangBotTeam
已使用
3
0
元/小时
部署实例
SD
flux
WebUI
lora-scripts
lora-scripts镜像提供轻量级LoRA训练套件,集成Kohya_ss训练器与WebUI界面,支持一键式模型微调、数据集预处理及参数可视化,简化Stable Diffusion衍生模型的定制流程,开箱即用。
@Faych
已使用
322
0
元/小时
部署实例
其他
Bunkws_202504211125
Bunkws 是杭州国芯微自研的一款端到端唤醒词训练框架
@杭州国芯微
已使用
10
0
元/小时
部署实例
数字人
Latentsync1.6最新牛哥魔改版本
牛哥专属调教版本: 开机即用 默认授权码9259 做了队列限制,多人排队,默认依次执行
@NiuGee
已使用
56
0
元/小时
部署实例
ComfyUI
flux
其他
Kontext-Nunchaku极速修图(含基础工作流)
@ai来事
已使用
17
0
元/小时
部署实例
flux
ComfyUI
WebUI
ComfyUI_nunchaku 双节棍极速搓图
comfyui+nunchaku极速出图、改图!
@ai来事
已使用
16
0
元/小时
部署实例
ComfyUI
深度学习
flux
Flux-kontext & Nunchaku急速高清修复工作流
Flux-kontext & Nunchaku急速高清修复工作流
@匹夫
已使用
125
0
元/小时
部署实例
ComfyUI
Kontext-ComfyUI-多种玩法合集
开源的SOTA级图像编辑模型的多种应用
@AI-KSK
已使用
22
0
元/小时
部署实例
ComfyUI
flux
comfyui_Kontext_Dev
最强大的图片编辑模型,支持基础修改、风格转换、角色一致性、文本编辑
@ai来事
已使用
21
0
元/小时
部署实例
ComfyUI
flux
其他
FLUX.1-Kontext-dev
黑森林开源最强图像编辑模型
@十字鱼
已使用
21
0
元/小时
部署实例
语音
voice-changer
@skl
已使用
27
0
元/小时
部署实例
ComfyUI
数字人
语音
multitalk数字人-indextts语音克隆工作流
镜像集成了multitalk数字人工作流与indextts语音克隆工作流
@匹夫
已使用
128
0
元/小时
部署实例
语音
深度学习
WebUI
GPT-SoVITS
GPT-SoVITS-V4(v2Pro,v2ProPlus),所需素材少,训练耗时短,情绪可控。
@aiguoliuguo
已使用
809
0
元/小时
部署实例
WebUI
index-tts在线api声音克隆快速声音生成api服务用于听小说语音直播等
index-tts在线api声音克隆快速声音生成api服务用于听小说语音直播等
@科哥AIGC
已使用
13
0
元/小时
部署实例
ComfyUI
通义
flux
6-20更新-大凯智障君VACE/FusionX专属AI视频镜像
6-23更新v2.7-大凯智障君-VACE / FusionX 专属AI视频镜像本镜像中包括了:最新的面部追踪流程、 Flux文生图+高清放大工作流 VACE / FusionX 文生视频、图生视频、视频生视频、首帧+尾帧视频comfyUI工作流。 如果你需要学习AIGC相关课程,可以前往哔哩哔哩(免费课程): https://space.bilibili.com/499577088
@大凯智障君
已使用
62
0
元/小时
部署实例
WebUI
Hunyuan3D-2.1
Hunyuan3D-2.1
@苍耳阿猫
已使用
7
0
元/小时
部署实例
深度学习
语音
WebUI
SVC-Fusion
支持so-vits-svc4.1,DDSP6.3/6.1/6,ReFlow-VAE三个项目的模型训练。
@aiguoliuguo
已使用
3451
0
元/小时
部署实例
PartPacker
单图生成零件级3D模型
@十字鱼
已使用
14
0
元/小时
部署实例
LLM
WebUI
n8n
n8n 是一个工作流自动化平台,为技术团队提供代码的灵活性和无代码的速度。拥有 400+ 集成、原生 AI 功能和公平代码许可证,n8n 让您构建强大的自动化,同时保持对数据和部署的完全控制。
@敢敢のwings
已使用
6
0
元/小时
部署实例
ComfyUI
通义
flux
大凯智障君-VACE / FusionX 专属AI视频镜像
大凯智障君-VACE / FusionX 专属AI视频镜像:包含Flux文生图高清放大、VACE模型视频创作流程、FusionX模型的图生视频、文生视频、视频转视频等最新的comfyUI工作流,我会定期更新本教学镜像,欢迎大家学习和测试使用。
@大凯智障君
已使用
47
0
元/小时
部署实例
语音
其他
SongGeneration
tencent-ailab旗下的SongGeneration项目,目前只有base模型
@Smzh
已使用
6
0
元/小时
部署实例
LLM
语音
深度学习
Voila-语音语言模型
Voila是一个超越人类反应速度的开源语音大模型,专为实时情感对话而设计。作为由美国加州大学圣地亚哥分校、阿联酋穆罕默德·本·扎耶德人工智能大学以及Maitrix.org团队共同开发的革命性语音基础模型,Voila采用端到端架构,实现了195ms超快响应,支持百万音色和10秒声音克隆,是构建有温度AI语音交互系统的理想选择。
@敢敢のwings
已使用
8
0
元/小时
部署实例
LLM
WebUI
Langchain-Chatchat
Langchain-Chatchat 镜像,支持模型的对话和模型知识库问答。
@BhAem
已使用
9
0
元/小时
部署实例
LLM
深度学习
v-jepa2
V-JEPA 2(Video Joint-Embedding Predictive Architecture 2)是Meta AI在世界模型构建领域的重大突破,这是一个能够像人类一样理解、预测和规划的自监督视频模型
@敢敢のwings
已使用
1
0
元/小时
部署实例
ComfyUI
深度学习
flux
FusionX最全工作流整合
FusionX最全工作流合集,创建即用,AI视频生成这里都有
@匹夫
已使用
526
0
元/小时
部署实例
LLM
数字人
WebUI
OpenAvatarChat——十字鱼镜像
阿里开源实时交互数字人
@十字鱼
已使用
66
0
元/小时
部署实例
语音
LLM
Srt-AI-Voice-Assistant+GPT-SoVITS-2506(V2Pro)
Srt-AI-Voice-Assistant配音辅助工具搭配GSV的镜像
@数列解析几何一生之敌
已使用
17
0
元/小时
部署实例
flux
ComfyUI
深度学习
Comfyui热门工作流
最新版comfyui,集成了360旋转工作流,WAN2.1视频转绘工作流,和图片重绘、flux-kontex工作流
@匹夫
已使用
448
0
元/小时
部署实例
数字人
LLM
LiveTalking
LiveTalking镜像提供实时交互数字人解决方案,支持ERNerf、MuseTalk、Wav2Lip多种模型,通过端到端生成对抗网络实现单张人脸照片驱动的超低延迟(<100ms)唇形同步、表情及头部运动控制,开箱即用。
@lipku
已使用
1267
0
元/小时
部署实例
语音
GPT-Sovits_V4
GPT-Sovits V4 推理特化 & 模型训练
@红血球AE3803
已使用
563
0
元/小时
部署实例
flux
ComfyUI
深度学习
FluxGym
最简单的lora制作工具,三步让你制作出自己的lora
@匹夫
已使用
182
0
元/小时
部署实例
LLM
TabbyAPI
TabbyAPI
@Smzh
已使用
1
0
元/小时
部署实例
LLM
WebUI
Text-Generation-Webui
Text-Generation-Webui大语言模型综合终端
@Smzh
已使用
4
0
元/小时
部署实例
深度学习
其他
alchemy_env_2502281138
用于训练alchemy kws模型
@
已使用
0
0
元/小时
部署实例
数字人
WebUI
DreamO-v1.0
DreamO实现了比以前的适配器方法更高的保真度,在保留字符身份方面具有明显的优势。
@科哥AIGC
已使用
5
0
元/小时
部署实例
ComfyUI
Wan2.1-AI视频创作多功能合集
这是一套强大的AI视频生成工具包,支持文生视频、图生视频,具备动作、镜头、参考图等高级控制功能,并可进行首尾特效、风格转绘、数字人生成等后期处理。
@AI-KSK
已使用
87
0
元/小时
部署实例
ComfyUI
通义
ComfyUI-WAN-AI视频
Wan2.1模型的文生视频、图生视频、首尾帧过渡动画体验镜像
@Hugo
已使用
27
0
元/小时
部署实例
吟惋兮-自动部署本地QQ机器人
一键部署AstrBot+NapCat+Ollama,兼容所有nv显卡 当廉价的喜欢布满街道 纯粹的爱意显得弱不禁风
@吟惋兮
已使用
15
0
元/小时
部署实例
DeepSeek
LLM
WebUI
DeepSeek-R1-0528-Qwen3-8B
DeepSeek-R1-0528-Qwen3-8B
@苍耳阿猫
已使用
17
0
元/小时
部署实例
SD
flux
WebUI
Niugee-HiDream-I1
在官方最新版本的基础上,你们喜爱的**牛哥(NiuGee)** 对其做了一些小改造: ### 1. 挂机模式 添加了你们喜欢的批量挂机模式:生成一张图一般需要一分钟左右,并且存在抽卡的可能,很多时候,我们希望可以一次性生成一批图片,然后我们逐个选择我们喜欢的就好了,但我们不想一次一次的修改提示词,点击开始,那么这个挂机模式就可以了 - 首先你准备一个Excel文件,然后再第一列,每行输入一个要生成图片的提示词,多少行就会最终生成多少。 - 打开web页面后,选择“批量”模式,上传Excel - 点击开始,之后就不用管了,等着完事就可以了 ### 2. 优化显存 我们知道在牛哥的5090上,这个软件基本已经快要占满了,那么我想把他运行在4090或者3090这种24GB显存版本的平台上,肯定会报显存溢出,牛哥通过一些“奇淫技巧!~”,嗯,现在只需要20G左右就可以了,剩下的空间,大胆的用来跑图吧 带来的影响:次推理第一张图的时候,时间会稍慢(Full 50步推理大概3分钟左右),之后就正常了,基本都是1分钟 ### 3. 软件汉化 & Bug修复 这个就不多展开了,官网是有一些小
@NiuGee
已使用
25
0
元/小时
部署实例
语音
WebUI
Index-TTS
index-tts来自B站的一个工业级别的声音克隆应用
@科哥AIGC
已使用
23
0
元/小时
部署实例
数字人
Fay数字人-3.1.1
Fay数字人3.1.1最小可运行版
@郭泽斌
已使用
57
0
元/小时
部署实例
vits-simple-api-v2.0
vits-simple-api一个出色的声音API管理应用。
@科哥AIGC
已使用
2
0
元/小时
部署实例
数字人
WebUI
HeyGem-Linux-Python-Hack-v1.0.2
HeyGem的docker免费离线版本,你只需要Python和Linux!
@科哥AIGC
已使用
43
0
元/小时
部署实例
WebUI
语音
其他
CosyVoice2-0.5B
CosyVoice阿里云同义实验室开源的AI声音克隆应用
@科哥AIGC
已使用
33
0
元/小时
部署实例
WebUI
语音
F5-TTS
F5-TTS 是由上海交通大学、剑桥大学和吉利汽车研究院(宁波)有限公司于 2024 年共同开源的一款高性能文本到语音 (TTS) 系统, 它基于流匹配的非自回归生成方法,结合了扩散变换器 (DiT) 技术。 1、一切环境已经就绪,开机已经启动应用,等待1-2分钟即可打开webUI进入使用页面: 2、如果需要重启程序,进入jupyterlab,终端命令行中输入: cd /root && run.sh 并回车,等待1-2分钟即可打开webUI进入使用页面. 官方更新源码在这里: https://github.com/SWivid/F5-TTS 使用视频及教程参考:B站搜索“F5-tts”相关视频教程 使用教程更新地址:https://kege-aigc.feishu.cn/docx/G5G1dcRUForkdnxhuQLcmsuknTb --- 有bug请微信科哥: 312088415 科哥目前在研究AI数字人直播卖货很成功,欢迎来了解一起玩: https://kege-aigc.feishu.cn/docx/G271dgZr1o8CvMx9KKrcRuuonDf
@科哥AIGC
已使用
17
0
元/小时
部署实例
语音
Voice-Changer
Voice-Changer 云端在线变声器
@icecoins
已使用
24
0
元/小时
部署实例
其他
HiDream-I1
HiDream-I1是一种新的开源图像生成基础模型,具有 17B 参数,可在几秒钟内实现最先进的图像生成质量。
@苍耳阿猫
已使用
11
0
元/小时
部署实例
通义
LLM
LLaMAFactory-0.9.3.dev-Qwen3-8B
llamafactory微调qwen3-8b等模型
@llamafactory_cn
已使用
28
0
元/小时
部署实例
科学计算
其他
Alphafold3
Alphafold3基础镜像,无MSA所需的数据库,无模型权重文件,需要自行下载
@
已使用
3
0
元/小时
部署实例
LLM
InternVL
InternVL 系列:GPT-4o 的开创性开源替代品。 接近GPT-4o表现的开源多模态对话模型
@CC仔
已使用
2
0
元/小时
部署实例
ComfyUI
其他
AI视频生成-ComfyUI-Wan2.1-多功能大合集
这是一套强大的AI视频生成工具包,支持文生视频、图生视频,具备动作、镜头、参考图等高级控制功能,并可进行首尾特效、风格转绘、数字人生成等后期处理。
@AI-KSK
已使用
204
0
元/小时
部署实例
LLM
ZhongJing-仲景中医大语言模型
首个中医大语言模型——“仲景”。受古代中医学巨匠张仲景深邃智慧启迪,专为传统中医领域打造的预训练大语言模型。
@CC仔
已使用
14
0
元/小时
部署实例
语音
gpt-sovits-v4
GPT-SoVITS,已更新V4,[优先使用较新镜像],所需素材少,训练耗时短,情绪较可控。已打包好整个流程所需的所有环境,开箱即用。
@39c5bb
已使用
143
0
元/小时
部署实例
ComfyUI
flux
LLM
三面ComfyUI
三面ComfyUI,400GB精选模型 + 105个常用节点
@三面君
已使用
97
0
元/小时
部署实例
通义
LLM
Qwen3-vLLM-Series
Qwen3系列模型,单卡4090推荐0.6B-8B模型,2卡推荐14B模型,4卡推荐32B模型
@优云智算
官方
已使用
54
0
元/小时
部署实例
通义
其他
WebUI
Wan2.1-Lora训练
WAN2.1-lora训练包,基于kohya的musubi-tuner和TTP大佬的gui,我增加了tensorboard功能,希望能够帮助到大家!共建wan视频生态。
@麻雀
已使用
8
0
元/小时
部署实例
LLM
通义
Qwen3-Ollama-Series
Qwen3-0.6B-235B量化模型,支持OpenWebUI
@苍耳阿猫
已使用
12
0
元/小时
部署实例
其他
WebUI
flux
FramePack图生视频
基于敏神发布的FramePack搭建的镜像
@xiaoxu
已使用
55
0
元/小时
部署实例
深度学习
科学计算
其他
MICCAI25-Challenge-Task2
MICCAI Challenge STSR 2025 - Task 2 Baseline Docker 赛事主页:https://www.codabench.org/competitions/6470/ 挑战赛主页:https://songhen15.github.io/STSdevelop.github.io/miccai2025/index.html 本 Docker 镜像旨在为 MICCAI Challenge STSR 2025 挑战赛 - Task 2(牙冠和牙根配准)提供一个开箱即用的深度学习基线(Baseline)解决方案。通过CBCT与IOS影像的配准实现牙冠-牙根跨模态配准 联系方式: SemiTeethSegChallenge@aliyun.com
@STSR大赛任务2
已使用
8
0
元/小时
部署实例
深度学习
科学计算
其他
MICCAI25-Challenge-Task1
对牙根髓管进行精确分割可以更清晰地显示其形态、分支和弯曲,从而有助于制定更精细的填充策略。然而,在 CBCT 图像中标注牙根髓管区域本身就是一项劳动密集型工作,需要投入大量的时间和人力资源。在Miccai STSR 2025挑战任务1中,我们扩大数据集并为不同的牙齿(包括牙齿和相应的根毛管)提供更细粒度的注释。预计该分割算法将准确地分割恒牙(包括智慧牙齿)和相应的根毛管。
@STSR大赛任务1
已使用
13
0
元/小时
部署实例
数字人
其他
DeepFaceLab训练环境dfl训练linux环境v1.0
DeepFaceLab训练环境dfl训练linux环境v1.0
@科哥AIGC
已使用
13
0
元/小时
部署实例
数字人
WebUI
Heygem数字人WebUI轻量版 By科哥
Heygem数字人WebUI轻量版视频生成数字人克隆对口型音频驱动视频构建By科哥
@科哥AIGC
已使用
158
0
元/小时
部署实例
语音
WebUI
vits-simple-api声音推理api服务构建By科哥
vits-simple-api声音推理api服务
@科哥AIGC
已使用
9
0
元/小时
部署实例
数字人
WebUI
LatentSync1.5数字人视频制作v1.5.3
LatentSync1.5数字人视频制作 ai数字人视频制作
@科哥AIGC
已使用
44
0
元/小时
部署实例
LLM
SD
ComfyUI
ComfyUI-v0.3.26+JoyCaption2
ComfyUI-v0.3.26JoyCaption2批量打标
@龙少
已使用
59
0
元/小时
部署实例
LLM
WebUI
GLM-4-0414
GLM-4-0414系列模型
@苍耳阿猫
已使用
8
0
元/小时
部署实例
heygem
HeyGem-lite
HeyGem镜像使用教程,HeyGem是由Duix.com开发的免费开源 AI 头像项目。
@优云智算
官方
已使用
35
0
元/小时
部署实例
LLM
WebUI
LLaMA-Factory-YingHuoAI
LLaMA-Factory(v0.9.2)大模型训练环境,内置WebUI启动器和API启动器,以及常用的6B、7B、8B、9B模型。
@萤火君
已使用
73
0
元/小时
部署实例
通义
其他
Qwen-vLLM-Series
包含Qwen2.5-VL多模态、QWQ-32B两个模型
@优云智算
官方
已使用
32
0
元/小时
部署实例
通义
Qwen2.5-Omni
qwen2.5-Omni
@苍耳阿猫
已使用
5
0
元/小时
部署实例
WebUI
LLM
其他
gemma3
创建实例,点击部署,然后稍等2-3分钟,进入JupyterLab 创建一个终端Terminal 启动 ollama 输入 ollama serve 启动 open-webui 然后启动open-webui,open-webui serve --port 8080 open-webui serve 然后在实例页面找到公网ip,在网页输入xxx.xxx.xxx.xxx:8080,xxx.xxx.xxx.xxx为你的公网ip, 即可进入我们的open-webui,我们点击开始使用 随后我们设置邮箱,用户名和密码,创建管理员。例如 coderabo@qq.com #邮箱 coderabo #用户名 coderabo #密码 然后右上角会提示“已登陆”,我们稍等一下 点击确认,即可开始使用! 后记:重置密码方法为: 进入以下目录删除:webui.db,然后重启open-webui 服务即可。 /usr/local/miniconda3/envs/py312/lib/python3.12/site-packages/open_we
@Coderabo
已使用
8
0
元/小时
部署实例
LLM
科学计算
GR00T-NIVIDIA
NVIDIA Isaac GR00T N1是全球首个用于通用人形机器人推理和技能的开源基础模型。这种跨实体模型可以接收多模态输入,包括语言和图像,以在各种环境中执行操作任务。GR00T的名称源自Generalized Robot Operations and Telemetry,代表着其通用化的操作能力和遥测数据处理能力。 GR00T N1 基于广泛的人形机器人数据集进行训练,这些数据集包括真实捕获的数据、使用NVIDIA Isaac GR00T Blueprint组件生成的合成数据,以及互联网规模的视频数据。通过训练后的适应过程,它可以针对特定的机器人实体、任务和环境进行优化。
@敢敢のwings
已使用
13
0
元/小时
部署实例
其他
WebUI
hunyuan3D-2
hunyuan3D-2
@苍耳阿猫
已使用
31
0
元/小时
部署实例
WebUI
其他
Hunyuan3D-2.0
腾讯混元3d生成模型,自带环境,开箱即用
@39c5bb
已使用
18
0
元/小时
部署实例
语音
深度学习
WebUI
MSST
MSST-webUI版本,更简单,加入一键处理,效率更高,更好用的干声分离以及去和声混响的项目,可以作为传统UVR的上位替代,并兼容UVR的模型,简单且快。
@aiguoliuguo
已使用
808
0
元/小时
部署实例
LLM
WebUI
Ollama-Gemma 3
Google发布的Gemma_3全系列模型 + Open-Webui
@苍耳阿猫
已使用
31
0
元/小时
部署实例
ComfyUI
flux
LLM
ComfyUI-v0.3.26
ComfyUI-v0.3.26,预装了ComfyUI相关常用插件
@龙少
已使用
245
0
元/小时
部署实例
ComfyUI
flux
通义
ComfyUI-Wanx-I2V
一键运行wanx i2v
@Faych
已使用
125
0
元/小时
部署实例
语音
WebUI
GPT-SoVITS-V3
GPT-SoVITS,已更新V3,[优先使用较新镜像],所需素材少,训练耗时短,情绪较可控。已打包好整个流程所需的所有环境,开箱即用。
@39c5bb
已使用
265
0
元/小时
部署实例
LLM
其他
通义
OpenManus自动生成项目
这个镜像提供了一个免费的OpenManus环境,并基于ollama来快速启动一个 LLM(大型语言模型)应用程序。该项目可支持单卡运行整个项目。
@敢敢のwings
已使用
77
0
元/小时
部署实例
通义
LLM
QwQ-32B-深度思考满血版
该版本是满血版本,需要四卡运行!!!Qwen发布了最新的32B推理模型QwQ-32B,其性能在许多基准测试中表现出色,甚至不逊色于671B参数的满血版DeepSeek R1。QwQ-32B基于Qwen2.5-32B,并通过强化学习(RL)进行进一步优化。
@敢敢のwings
已使用
20
0
元/小时
部署实例
其他
SD
CogView4-6B
智谱发布的首个支持生成汉字的开源文生图模型。
@苍耳阿猫
已使用
5
0
元/小时
部署实例
通义
LLM
WebUI
QwQ-32B-GGUF
基于 Ollama 和 Open WebUI 运行的 QwQ-32B 模型。
@苍耳阿猫
已使用
29
0
元/小时
部署实例
数字人
其他
WebUI
LivePortrait
基于拼接和重定向控制的高效人像动画。
@windsing
已使用
20
0
元/小时
部署实例
SD
Koyha-ss Lora训练
Koyha_ss项目使用了gradio对lora的训练任务进行了封装,提供了可视化交互界面,通过交互界面,可以方面修改训练参数的配置,对小白更加友好。
@windsing
已使用
18
0
元/小时
部署实例
通义
ComfyUI
ComfyUI-Wanx-T2V
ComfyUI Native实现wan2.1(通义万象)。
@Faych
已使用
28
0
元/小时
部署实例
通义
Wan2.1-T2V-1.3B
通义万相2.1-文生视频-1.3B
@Alex
已使用
10
0
元/小时
部署实例
数字人
语音
其他
marketing_creator_pro_max
数字人成品项目包含数字人克隆、声音克隆、短视频生成、直播(待发布)、AI配音、AI字幕,包括Windows安装版,Web版,H5版,小程序版,副业必备
@
已使用
88
0
元/小时
部署实例
通义
WebUI
Wan2.1-WebUI
Wan-2.1,已下载好1.3B和14B的模型。
@苍耳阿猫
已使用
47
0
元/小时
部署实例
通义
ComfyUI
ComfyUI-Wan2.1
阿里推出的视频生成模型,效果媲美商用模型
@O_O
已使用
86
0
元/小时
部署实例
LLM
其他
ollama
用于大模型镜像制作或接口部署
@Faych
已使用
34
0
元/小时
部署实例
科学计算
Gromacs-2025.0
本镜像安装的gromacs版本为2025.0,且是单节点GPU版本。
@苍耳阿猫
已使用
44
0
元/小时
部署实例
LLM
WebUI
SPO-自监督提示优化
基于大语言模型自监督能力的提示优化框架,SPO通过对比不同提示生成的输出质量,自主完成优化迭代。
@Airmomo
已使用
32
0
元/小时
部署实例
LLM
xinference_GPU
Xinference 框架
@
已使用
27
0
元/小时
部署实例
语音
Zonos-v0.1
一个领先的开源文本到语音(TTS)模型,专为生成自然流畅的语音而设计。
@HelloGitHub
已使用
12
0
元/小时
部署实例
语音
WebUI
RVC
AI翻唱+语音变声器:RVC语音转换训练推理用WebUI,3分钟极速训练新模型
@aiguoliuguo
已使用
2334
0
元/小时
部署实例
其他
OmniParser
微软开源的屏幕解析工具,旨在将用户界面的屏幕截图解析为结构化且易于理解的元素。
@HelloGitHub
已使用
19
0
元/小时
部署实例
SD
WebUI
其他
sdwebui_xl_2
最新WebUi1.10.0+全新整合包4.0+一个命令启动
@xiaolxl
已使用
245
0
元/小时
部署实例
DeepSeek
LLM
深度学习
LLaMAFactory-0.9.2.dev-DeepSeek-R1-Distill
使用[LLaMA-Factory](https://github.com/hiyouga/LLaMA-Factory)在多张RTX4090上微调DeepSeek-R1-Distill系列模型
@llamafactory_cn
已使用
163
0
元/小时
部署实例
深度学习
其他
SF_Loc
SF-Loc应该算是DBA-Fusion(RAL2024)的改进版。 在image+IMU的基础上额外加了map-aided localization.而所谓的map属于priori map,是由稀疏帧(每帧为稠密的深度)来组成的。而要实现map-aided localization,就需要分别解决mapping以及re-localization的两个问题。
@敢敢のwings
已使用
0
0
元/小时
部署实例
LLM
WebUI
TPO-LLM-WebUI
用纯文本提示的方法实时“微调”LLM,使得基础模型在推理过程中与人类偏好对齐,生成更好的结果。`TPO-LLM-WebUI` 为TPO框架提供了一个友好的WebUI以便你加载LLM和奖励模型,以及展示输出结果。
@Airmomo
已使用
11
0
元/小时
部署实例
flux
SD
WebUI
Flux-Lora训练ai-toolkit极简可视化窗口
终端输入 cd /root/ai-toolkit && bash /root/ai-toolkit/运行.sh
@南墙_Rylee
已使用
105
0
元/小时
部署实例
DeepSeek
LLM
KTransformers-DeepSeek-R1
建议4卡4090,内存300G以上!KTransformers 使用说明文档,目前支持Q4级别的deepseek的QA对话
@敢敢のwings
已使用
75
0
元/小时
部署实例
语音
WebUI
BertVits2-2.4中文特化版
@aiguoliuguo
已使用
9
0
元/小时
部署实例
语音
WebUI
FishSpeech
Fish Speech,已发布正式版1.5,强大的zero shot能力,支持中日英德法阿拉伯等多国语言。镜像打包了所需的环境,包括干声分离,切片,标注等工具,开箱即用。
@aiguoliuguo
已使用
49
0
元/小时
部署实例
LLM
WebUI
Satori-7B-Round2-WebUI
仅7B就在数学推理能力上超越70B和一众小型模型,MIT与哈佛基于行动-思维链(COAT)机制训练的 Satori-7B-Round2 推理模型。本镜像提供了一个 Gradio API 提供了一个友好的 Web UI,方便快速部署实例后立即体验 Satori-7B-Round2 模型的推理能力。
@蚝油菜花
已使用
1
0
元/小时
部署实例
深度学习
YOLOv5
YOLOv5 镜像,开箱即用,支持模型训练、模型验证和模型推理。
@BhAem
已使用
69
0
元/小时
部署实例
LLM
ChatGLM3
ChatGLM3 镜像,开源双语对话语言模型,支持模型的推理和模型微调。
@BhAem
已使用
29
0
元/小时
部署实例
LLM
深度学习
SGLang推理加速
这个镜像将会创建大模型推理加速SGLang框架所需的环境,同时将会采用Xinference作为模型管理工具。
@whisdom
已使用
4
0
元/小时
部署实例
深度学习
其他
SiameseUniNLU零样本通用NLU
一键实现各种NLU任务
@whisdom
已使用
6
0
元/小时
部署实例
深度学习
其他
segment-anything
分割任何物体模型 (SAM)可根据点或框等输入提示生成高质量物体蒙版,并可用于为图像中的所有物体生成蒙版。该模型已在包含 1100 万张图像和 11 亿个蒙版的数据集上进行了训练,并且在各种分割任务中具有强大的零样本性能
@naoxin
已使用
11
0
元/小时
部署实例
深度学习
其他
Fastsam
快速分割任何内容
@naoxin
已使用
4
0
元/小时
部署实例
LLM
DeepSeek
DeepScaleR-1.5B
Deepseek-R1-Distilled-Qwen-1.5B,通过简单的强化学习(RL)微调,得到了全新的DeepScaleR-1.5B-Preview。 在AIME2024基准中,模型的Pass@1准确率达高达43.1% ——不仅比基础模型提高了14.3%,而且在只有1.5B参数的情况下超越了OpenAI o1-preview!
@敢敢のwings
已使用
12
0
元/小时
部署实例
DeepSeek
LLM
DeepSeek-R1:32b
deepseek-r1:32b版本,单卡4090可以流畅推理,适合用于自己的知识库构建。
@fancy
已使用
32
0
元/小时
部署实例
ComfyUI
兰雀ComfyUI
最强大和模块化的扩散模型GUI、api和后端,具有图形/节点界面,专业人士首选。
@兰雀AI
已使用
209
0
元/小时
部署实例
语音
深度学习
WebUI
BertVits2-2.3
@aiguoliuguo
已使用
8
0
元/小时
部署实例
语音
WebUI
CosyVoice
阿里 TTS模型,提供多语言语音生成、零样本语音生成、跨语言语音克隆和指令跟随能力
@aiguoliuguo
已使用
100
0
元/小时
部署实例
LLM
DeepSeek
Ollama-DeepSeek-R1-671B-Q1
671Bdeepseek 量化版本,最低可以双卡4090运行,速度较慢,如果有较快需求可以提卡,建议4卡运行这个ollama模型是最好的,并在`vim /etc/systemd/system/ollama.service`文件中将两卡,修改成你加载的卡数`Environment=CUDA_VISIBLE_DEVICES=0,1`
@敢敢のwings
已使用
40
0
元/小时
部署实例
DeepSeek
LLM
WebUI
vLLM-DeepSeek-chatbot可视化大模型聊天机器人
deepseek-vllm-chatbot可视化大模型聊天机器人
@苍耳阿猫
已使用
7
0
元/小时
部署实例
DeepSeek
LLM
SGLang-DeepSeek-R1-Distill
该镜像使用sglang加速框架部署DeepSeek-R1-Distill系列大模型服务
@xufengnian
已使用
17
0
元/小时
部署实例
DeepSeek
LLM
Unsloth-DeepSeek-R1-GGUF
R1-671b动态量化版,由unsloth发布,推荐使用多卡进行部署。 详情请查看镜像内说明或者readme。还附带32b的无限制版蒸馏模型,使用open-webui和ollama以及llama.cpp进行部署。
@39c5bb
已使用
92
0
元/小时
部署实例
DeepSeek
LLM
WebUI
Ollama-DeepSeek-R1-70B
需要双卡,Ollama 和 Open WebUI搭建的DeepSeek-R1-70B版本,支持API调用
@敢敢のwings
已使用
398
0
元/小时
部署实例
LLM
vLLM-GLM-4-9B
GLM-4-9B在vLLM加速推理框架的部署
@whisdom
已使用
1
0
元/小时
部署实例
语音
Diffsinger
diffsinger基本全自动的声库制作镜像,镜像内涵盖了所有环境,开箱即用。所制作声库用于openutau歌声合成引擎,该镜像使用diffsinger的多字典分支,默认支持中日跨语种,但仅支持中文的全自动数据集处理。
@39c5bb
已使用
5
0
元/小时
部署实例
DeepSeek
LLM
WebUI
Janus-Pro-7B
Janus-Pro-7B大模型
@优云智算
官方
已使用
1105
0
元/小时
部署实例
科学计算
其他
cp2k_lammps_deepmd-kit
cp2k_lammps_deepmd-kit
@苍耳阿猫
已使用
6
0
元/小时
部署实例
其他
HivisonIDPhoto
一款简单易用的 AI 证件照制作工具,能够生成标准证件照和六寸排版照。支持抠图、尺寸调整和自定义底色等功能。
@Samphi
已使用
40
0
元/小时
部署实例
深度学习
科学计算
其他
SAMed
用于医学图像分割的定制化 Segment Anything 模型
@naoxin
已使用
2
0
元/小时
部署实例
其他
Cogview3
Cogview3 是一个先进的文本到图像生成模型,由清华大学 KEG 实验室和智谱AI公司联合训练。CogView-3-Plus 基于 CogView3 (ECCV'24),引入了最新的 DiT 框架,以进一步提高整体性能。 CogView-3-Plus 使用零信噪比扩散噪声调度,并结合了联合文本图像注意机制。与常用的MMDiT结构相比,它在保持模型基本能力的同时,有效降低了训练和推理成本。 CogView-3Plus 使用潜在维度为 16 的 VAE。
@liusha
已使用
2
0
元/小时
部署实例
LLM
MiniCPM-o-2.6
MiniCPM-o 是从 MiniCPM-V 分级的最新端侧多模态 LLM (MLLM) 系列。这些模型现在可以将图像、视频、文本和音频作为输入,并以端到端方式提供高质量的文本和语音输出。
@liusha
已使用
3
0
元/小时
部署实例
LLM
Cosmos-v1.0
Cosmos-v1.0
@苍耳阿猫
已使用
9
0
元/小时
部署实例
语音
其他
DDSP-SVC-6.2
ddsp6.2,内置环境,上传数据即可训练,支持批量推理。后续会更新
@39c5bb
已使用
167
0
元/小时
部署实例
LLM
LLaMA3-8B
LLaMA3-8B-Instruct WebDemo 部署
@liusha
已使用
7
0
元/小时
部署实例
LLM
TensorRT-LLM
TensorRT-LLM 为用户提供了易于使用的 Python API,用于定义大型语言模型 (LLM) 并构建包含最先进优化的 TensorRT 引擎,以便在 NVIDIA GPU 上高效执行推理。TensorRT-LLM 还包含用于创建执行这些 TensorRT 引擎的 Python 和 C++ 运行时的组件。
@Tlntin
已使用
14
0
元/小时
部署实例
数字人
WebUI
深度学习
Xier-EchoMimicV2
EchoMimicV2是阿里蚂蚁集团推出的半身人体AI数字人项目,基于参考图片、音频剪辑和手部姿势序列生成高质量动画视频,确保音频内容与半身动作的一致性。
@Xier
已使用
95
0
元/小时
部署实例
WebUI
其他
深度学习
Xier-FunClip
FunClip 是一款开源的自动化视频剪辑工具,通过集成先进的 AI 技术,降低了视频剪辑的难度,使得非专业人士也能够轻松制作出专业水准的视频内容。
@Xier
已使用
3
0
元/小时
部署实例
深度学习
其他
guassion_splat_cuda
支持cuda版本的高斯渲染的代码操作,并支持二次激光雷达开发
@敢敢のwings
已使用
44
0
元/小时
部署实例
语音
其他
VoiceTransl
VoiceTransl是一站式离线AI视频字幕生成和翻译软件,从视频下载,音频提取,听写打轴,字幕翻译各个环节为翻译者提供便利。
@Simple
已使用
316
0
元/小时
部署实例
其他
Genesis
Compshare云服务平台Genesis世界模型的上手与测试。详情可以参考:https://hermit.blog.csdn.net/article/details/144665610
@敢敢のwings
已使用
29
0
元/小时
部署实例
ComfyUI
深度学习
其他
ComfyUI-HunyuanVideo-Lora_Train
混元视频模型lora一键训练,镜像内打包了标注,训练,和用于测试的comfyui,打包所有环境,支持上传图片一键训练
@39c5bb
已使用
107
0
元/小时
部署实例
VoiceMamba
@小冷一直在摸鱼
已使用
4
0
元/小时
部署实例
ComfyUI
深度学习
其他
ComfyUI-HunyuanVideo
基于ComfyUI,支持当前最强的开源视频基础模型,目前支持t2v,之后会更i2v和v2v,镜像内置完整环境,包含bf16和fp8量化后占用更小的两种模型,并链接了插帧和超分功能,开箱即用
@39c5bb
已使用
177
0
元/小时
部署实例
语音
WebUI
so-vits-svc
sovits svc项目的主分支,带干声分离和音频切割,打包了整套数据集制作工具,基本一键训练,开箱即用
@39c5bb
已使用
381
0
元/小时
部署实例
其他
WebUI
HunyuanVideoGP
HunyuanVideoGP
@苍耳阿猫
已使用
4
0
元/小时
部署实例
flux
WebUI
FLUX预装反推插件
@弑迁士
已使用
26
0
元/小时
部署实例
其他
Diffusion_Policy具身智能
Diffusion_Policy这是一种生成机器人行为的新方法,它将机**器人的视觉运动策略(visuomotor policy)表示为条件去噪扩散过程(conditional denoising diffusion process)。在 4 个不同的机器人操纵基准中的 15 个不同任务中对 Diffusion Policy 进行了基准测试**,发现它始终优于现有的最先进的机器人学习方法,平均提高了 46.9%。Diffusion Policy 可以学习动作分布得分函数的梯度(gradient of the action-distribution score),并在推理过程中通过一系列随机朗之文动力学(stochastic Langevin dynamics)步骤对该梯度场进行迭代优化。
@敢敢のwings
已使用
20
0
元/小时
部署实例
深度学习
其他
YOLOv3环境,数据集,代码,全套可,一键跑通
Ai学术叫叫兽出品,必属精品! YOLOv3环境,数据集,代码,全套可,一键跑通
@Ai学术叫叫兽
已使用
10
0
元/小时
部署实例
深度学习
其他
rtdetr环境,数据集,代码,全套可,一键部署
Ai学术叫叫兽出品,必属精品! rtdetr环境,数据集,代码,全套可,一键跑通
@Ai学术叫叫兽
已使用
17
0
元/小时
部署实例
深度学习
YOLOv6环境,数据集,代码,全套可,一键跑通
Ai学术叫叫兽出品,必属精品! YOLOv6环境,数据集,代码,全套可,一键跑通
@Ai学术叫叫兽
已使用
3
0
元/小时
部署实例
深度学习
其他
YOLOv9环境,数据集,代码,全套可,一键跑通
Ai学术叫叫兽出品,必属精品! YOLOv9环境,数据集,代码,全套可,一键跑通
@Ai学术叫叫兽
已使用
8
0
元/小时
部署实例
深度学习
其他
YOLOv5环境,数据集,代码,全套可,一键跑通
Ai学术叫叫兽出品,必属精品! YOLOv5环境,数据集,代码,全套可,一键跑通
@Ai学术叫叫兽
已使用
31
0
元/小时
部署实例
ComfyUI
flux
ComfyUI-LTX-Video
集成了最新的视频模型LTXV,支持在线文生视频跟图生视频
@弑迁士
已使用
69
0
元/小时
部署实例
深度学习
其他
YOLOv8环境,数据集,代码,全套可,一键跑通
Ai学术叫叫兽出品,必属精品! YOLOv8环境,数据集,代码,全套可,一键跑通
@Ai学术叫叫兽
已使用
138
0
元/小时
部署实例
其他
深度学习
Unet算法环境,数据集,代码,全套可,一键跑通
@Ai学术叫叫兽
已使用
28
0
元/小时
部署实例
WebUI
LLM
LLaMA-Factory-YingHuo6AI
LLaMA-Factory 大模型训练环境,内置WebUI启动器和API启动器,以及常用的6B、7B、8B、9B模型。
@萤火君
已使用
68
0
元/小时
部署实例
通义
LLM
QwQ-32B-Preview
QwQ-32B-Preview
@苍耳阿猫
已使用
7
0
元/小时
部署实例
通义
语音
Qwen_Audio
Qwen-Audio 是阿里云研发的大规模音频语言模型(Large Audio Language Model)。Qwen-Audio 可以以多种音频 (包括说话人语音、自然音、音乐、歌声)和文本作为输入,并以文本作为输出。
@敢敢のwings
已使用
10
0
元/小时
部署实例
深度学习
其他
YOLOv10环境,数据集,代码,全套可,一键跑通
Ai学术叫叫兽出品,必属精品! YOLOv10环境,数据集,代码,全套可,一键跑通
@Ai学术叫叫兽
已使用
66
0
元/小时
部署实例
LLM
Apple-OpenELM大模型
OpenELM是由苹果公司开发的一款先进语言模型,通过一种新的层级缩放策略优化每个Transformer层的参数分配,从而提升模型的效率和准确性。OpenELM还提供了一个开放的训练和推理框架,包含数据集、训练日志和检查点等资源,支持研究的可重复性和透明性。 模型地址:https://huggingface.co/collections/apple/openelm-instruct-models-6619ad295d7ae9f868b759ca 项目地址:https://github.com/apple/corenet/tree/main/projects/openelm 官方报道:https://machinelearning.apple.com/research/openelm 论文链接:https://arxiv.org/abs/2404.14619
@敢敢のwings
已使用
1
0
元/小时
部署实例
LLM
Phi_4k
Phi-3-4k,Phi-3系列包含三个规模的模型,该模型经过了一个后期培训过程,其中包括指导遵循和安全措施的监督微调和直接偏好优化。当根据测试常识、语言理解、数学、代码、长上下文和逻辑推理的基准进行评估时,Phi-3-Medium-128k-Instruction在参数不到130亿的模型中展示了稳健和最先进的性能。
@敢敢のwings
已使用
2
0
元/小时
部署实例
LLM
YuanLLM
YuanLLM 模型,源2.0 是浪潮信息发布的新一代基础语言大模型,包括源2.0-102B,源2.0-51B和源2.0-2B。源2.0是在源1.0的基础上,利用更多样的高质量预训练数据和指令微调数据集,令模型在语义、数学、推理、代码、知识等不同方面具备更强的理解能力。 算法方面,源2.0提出并采用了一种新型的注意力算法结构:局部注意力过滤增强机制(LFA:Localized Filtering-based Attention)。LFA通过先学习相邻词之间的关联性,然后再计算全局关联性的方法,能够更好地学习到自然语言的局部和全局的语言特征,对于自然语言的关联语义理解更准确、更人性,提升了模型的自然语言表达能力,进而提升了模型精度。
@敢敢のwings
已使用
4
0
元/小时
部署实例
LLM
Yi-LLM-9B-coder
Yi-LLM-9B-coder
@敢敢のwings
已使用
4
0
元/小时
部署实例
LLM
TransNormerLLM
TransNormerLLM 大模型
@敢敢のwings
已使用
5
0
元/小时
部署实例
LLM
MiniCPM-chat
MiniCPM-chat
@敢敢のwings
已使用
2
0
元/小时
部署实例
LLM
InternLM2-7B-chat
InternLM2-7B-chat
@敢敢のwings
已使用
5
0
元/小时
部署实例
LLM
Gemma-2-9b
Gemma-2-9b镜像集成谷歌轻量级开源大语言模型,基于Gemini同源技术构建,专注文本生成任务(问答/摘要/推理),通过90亿参数优化实现高性能与低资源消耗,支持笔记本到云环境的灵活部署,提供开箱即用的英文文本生成服务。
@敢敢のwings
已使用
3
0
元/小时
部署实例
LLM
CharacterGLM-chat
CharacterGLM-6B-Chat镜像集成清华大学开源的对话大语言模型,专注角色扮演与个性化交互,通过6B参数架构与128K上下文窗口实现长程角色一致性,支持多轮情感化对话与性格定制,预训练融合戏剧/文学角色数据
@敢敢のwings
已使用
1
0
元/小时
部署实例
LLM
BlueLM-7B-WebDemo
BlueLM-7B 是由 vivo AI 全球研究院自主研发的大规模预训练语言模型,参数规模为 70 亿。需要一个4090 GPU来完成运行,这里提供了一个Web端以供使用者二次开发
@敢敢のwings
已使用
6
0
元/小时
部署实例
LLM
Index-1.9B-Chat
Index-1.9B-Chat镜像集成轻量级开源对话大语言模型,基于Index-1.9B模型经SFT与DPO对齐优化,预训练引入海量网络社区语料,显著增强趣味聊天能力与多轮交互表现,兼顾低资源部署与高响应速度,开箱即用。
@敢敢のwings
已使用
2
0
元/小时
部署实例
LLM
Atom-7B
Atom-7B镜像集成高性能轻量级开源大语言模型,基于2T高质量多语种数据预训练,具备高效推理与强泛化能力,支持中英双语任务处理及低成本本地部署,兼顾性能与资源效率,开箱即用。
@敢敢のwings
已使用
1
0
元/小时
部署实例
深度学习
其他
YOLOv11算法环境-数据集-代码全套
YOLOv11镜像集成最新目标检测框架升级版,关注B站:Ai学术叫叫兽,跟着视频教程一分钟快速跑通,免费福利专为遥遥领先大家庭小伙伴提供,开箱即用。
@Ai学术叫叫兽
已使用
258
0
元/小时
部署实例
LLM
DeepSeek
DeepSeek-V2-Lite
DeepSeek-V2-Lite镜像提供高性能开源大语言模型服务,需双4090 GPU支持运行,集成完整Web交互界面供用户直接调用与二次开发,开箱即用。
@敢敢のwings
已使用
8
0
元/小时
部署实例
数字人
facefusion3.0.1图片视频换脸应用
FaceFusion 3.0.1镜像集成开源人脸融合与增强工具,支持图像/视频/直播流的高精度人脸交换、年龄性别编辑及清晰度修复,通过多线程优化与显存管理实现实时处理速度,提供简洁API与开箱即用的一键式本地部署方案。
@科哥AIGC
已使用
202
0
元/小时
部署实例
语音
WebUI
MSST-WebUI
MSST,更好用的干声分离以及去和声混响的项目,可以作为传统UVR的上位替代,并兼容UVR的模型,带webui,也可通过笔记本一键处理音频,简单且高效
@39c5bb
已使用
77
0
元/小时
部署实例
深度学习
其他
3dgs
3DGS镜像集成开源3D高斯点云渲染框架,通过高效可微栅格化技术实现实时的照片级场景重建与渲染,支持从稀疏图像生成高质量动态3D场景,在渲染速度与视觉保真度上超越传统神经辐射场方案,适用于虚拟现实、数字孪生及影视制作领域
@敢敢のwings
已使用
15
0
元/小时
部署实例
深度学习
其他
MixVpr
MixVPR镜像集成全局特征聚合的位置识别模型,通过混合多尺度特征与自适应聚合技术提升复杂场景(如视角/光照变化)下的定位鲁棒性,支持端到端训练与轻量部署,适用于自动驾驶、机器人导航等视觉定位任务
@敢敢のwings
已使用
1
0
元/小时
部署实例
深度学习
其他
YOLOv5
这是一个基于 YOLOv5 v7.0 版本构建的 YOLO Docker 镜像,适用于 YOLOv5 v7.0版本的 AI 视觉处理任务。通过该镜像,用户可以轻松进行 图像分类、目标检测、目标跟踪、姿态识别、图像分割 等任务,该镜像支持以下操作: 模型训练(train):在自定义数据集上训练 YOLO 模型。 模型验证(val):验证模型性能,获得关键指标。 模型推理(inf):对图像、视频流进行目标检测和分类。 部署优化(opt):通过 TensorRT 等工具,优化 GPU 加速推理。
@狼哥
已使用
51
0
元/小时
部署实例
其他
VNC可视化镜像
VNC可视化镜像专为具身智能从业者提供优刻得远程可视化服务,支持无物理显示设备的跨平台图形界面交互,可基于此完成定制化开发与发布。
@敢敢のwings
已使用
9
0
元/小时
部署实例
LLM
WebUI
LLaMAFactory
LLaMAFactory镜像提供一站式开源大语言模型微调框架,支持全参数/部分参数/QLoRA等高效微调方法,兼容LLaMA、BLOOM等主流架构,通过无需代码的Web界面简化训练流程,显著降低模型定制门槛,开箱即用。内置Qwen2.5-7B-Instruct和alpaca_zh供测试
@Faych
已使用
36
0
元/小时
部署实例
LLM
深度学习
ollama-0.4.1
Ollama-0.4.1镜像提供轻量级本地大语言模型运行框架,支持一键拉取与运行Llama2、CodeLlama、Mistral等开源模型(GGUF格式),通过类Docker的CLI实现零配置本地部署与交互式对话,开箱即用。
@苍耳阿猫
已使用
26
0
元/小时
部署实例
数字人
AniTalker
AniTalker镜像集成清华大学开源的2D动画角色口型同步工具,通过轻量级模型实现实时语音驱动口型生成与表情控制,支持静态图/动态视频输入,提供高精度唇形匹配与低延迟渲染,适用于动画制作及虚拟主播场景,开箱即用。
@O_O
已使用
37
0
元/小时
部署实例
深度学习
其他
YOLOv8
这是一个基于 YOLOv8 构建的 YOLO Docker 镜像,适用于 YOLOv8 及以上版本的 AI 视觉处理任务。通过该镜像,用户可以轻松进行 图像分类、目标检测、目标跟踪、姿态识别、图像分割 等任务,该镜像支持以下操作: 模型训练(train):在自定义数据集上训练 YOLOv8 模型。 模型验证(val):验证模型性能,获得关键指标。 模型推理(inf):对图像、视频流进行目标检测和分类。 部署优化(opt):通过 TensorRT 等工具,优化 GPU 加速推理。
@狼哥
已使用
50
0
元/小时
部署实例
深度学习
LLM
DeepSpeed
DeepSpeed 只需单击一下即可实现类似 ChatGPT 的模型训练,与 SOTA RLHF 系统相比,其速度提高了 15 倍,并且在各个规模上都实现了前所未有的成本降低
@苍耳阿猫
已使用
5
0
元/小时
部署实例
通义
LLM
Qwen2-VL
Qwen2.5-VL镜像集成通义千问开源多模态大语言模型,支持高精度图文理解、文档解析与多图推理,具备128K长上下文能力与增强OCR技术,在跨模态任务中达到业界前沿水平,提供高效开源部署方案及商用友好授权。
@O_O
已使用
25
0
元/小时
部署实例
语音
数字人
ChatTTS
ChatTTS镜像集成开源对话式文本转语音模型,支持中英双语自然语音合成与细粒度韵律控制(笑声/停顿/情感调节),针对对话场景优化,具备高保真音质与低延迟特性,提供零依赖部署及API服务。
@Faych
已使用
41
0
元/小时
部署实例
SD
flux
ComfyUI
ComfyUI-V2
ComfyUI-V2镜像集成Flux工作流与Stable Diffusion 3.5模型,预装六大核心插件:汉化支持、ControlNet预处理、IP适配增强、图像浏览工具、节点管理器及工作流增强组件(开关/图像对比),提供开箱即用的高级AI绘画与图像处理环境。
@🎉Astro
已使用
340
0
元/小时
部署实例
ComfyUI
flux
ComfyUI-Flux.1-dev
ComfyUI-Flux.1-dev 镜像预装 Flux.1 开发版工作流套件,集成 ComfyUI 核心环境与常用节点依赖,支持 Stable Diffusion 高级图像生成与处理任务,开箱即用。
@O_O
已使用
112
0
元/小时
部署实例
语音
WebUI
GPT-SoVITS-V2
GPT-SoVITS-V2镜像提供高效零样本语音克隆与文本转语音工具,所需训练素材少、耗时短且情绪控制更精准,集成完整API接口及环境依赖,开箱即用。相比V1版本显著优化音色还原度与合成自然度,并增强跨语言支持与长音频稳定性,支持一键式本地部署。
@39c5bb
已使用
249
0
元/小时
部署实例
通义
LLM
Qwen
Qwen镜像集成通义千问开源大语言模型系列,提供Qwen-7B基础对话模型与Qwen-VL多模态模型,支持中英双语128K长上下文、代码生成及图像理解,基于高质量预训练与对齐优化实现强任务泛化能力,兼顾高性能与开源友好部署特性。
@敢敢のwings
已使用
15
0
元/小时
部署实例
LLM
VisualGLM
VisualGLM-6B 是一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。
@敢敢のwings
已使用
7
0
元/小时
部署实例
LLM
Baichuan-13B
Baichuan-13B镜像集成开源双语大语言模型,基于2.6万亿高质量中英双语训练数据构建,支持4096上下文长度与ALiBi位置编码,在通用问答、代码生成及多任务处理中表现优异,兼顾性能与计算效率,提供免费商用授权的高性价比开源模型部署方案。
@敢敢のwings
已使用
11
0
元/小时
部署实例
LLM
MiniMind
MiniMind镜像提供轻量级开源知识库增强框架,专为小型语言模型设计,通过高效向量检索与生成优化实现低成本知识注入,显著提升小模型在专业领域的问答准确性与上下文理解能力,支持本地快速部署。
@敢敢のwings
已使用
15
0
元/小时
部署实例
LLM
GLM4
GLM-4是由清华大学推出的新一代开源大语言模型,具备 320 亿参数,性能对标 GPT 系列与 DeepSeek-V3/R1 系列。该模型基于 15T 高质量数据预训练(含丰富推理合成数据),并通过强化学习、拒绝采样等技术强化了指令遵循、工程代码、函数调用及智能体任务能力。其支持本地友好部署,在代码生成、多模态内容构建、搜索问答等场景表现优异,部分基准测试媲美 GPT-4o 和 DeepSeek-V3 等更大规模模型。
@敢敢のwings
已使用
13
0
元/小时
部署实例
LLM
WebUI
SimpleRAG可视化
SimpleRAG可视化镜像集成Gradio界面与Milvus向量库,提供直观的检索增强生成(RAG)流程演示,支持文档上传、文本切片、向量检索及生成结果可视化,助力用户快速理解RAG技术原理与应用部署。
@敢敢のwings
已使用
20
0
元/小时
部署实例
LLM
WebUI
llama.cpp
llama.cpp镜像提供纯C++实现的轻量级大语言模型推理框架,通过高效量化技术显著降低硬件门槛,支持CPU/GPU异构计算,实现跨平台零依赖部署,适用于边缘设备及本地环境的高速LLM推理任务。
@敢敢のwings
已使用
16
0
元/小时
部署实例
LLM
WebUI
Ollama-WebUI
Ollama是一个开源的大型语言模型服务工具,它允许用户在自己的硬件环境中轻松部署和使用大规模预训练模型。Ollama 的主要功能是在Docker容器内部署和管理大型语言模型(LLM),使得用户能够快速地在本地运行这些模型。它简化了部署过程,通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,例如Llama 3。
@优云智算
官方
已使用
51
0
元/小时
部署实例
LLM
WebUI
LLaMAFactory-WebUI
LLaMA-Factory镜像提供一站式大语言模型微调框架,支持全参数、部分参数及高效QLoRA等多种微调方法,兼容LLaMA、BLOOM等主流架构,内置Web界面简化训练流程,显著提升模型定制效率与易用性。多模型支持,LLaMA、LLaVA、Mistral、Mixtral-MoE、Qwen、Qwen2-VL等。
@优云智算
官方
已使用
109
0
元/小时
部署实例
其他
WebUI
ComfyUI
vllm-0.6.3.post1-1
基于vLLM项目构建,提供高效的大语言模型推理加速服务,通过创新的PagedAttention技术优化内存管理和并行计算,显著提升模型吞吐量并降低延迟,支持多种主流Transformer架构的LLM部署
@苍耳阿猫
已使用
35
0
元/小时
部署实例