2这是一个基于 Ollama + Open WebUI 搭建的双破限大模型镜像,内置 gemma-4-uncensores:31b 和 GPT-OSS-Abliterated 120B 两个模型。两个模型都属于限制较少、表达更开放的版本,适合本地大模型聊天、写作、推理等场景。
镜像里分为 不带 KSK 和 带 KSK 两类模型。 不带 KSK 的是原始模型版本,没有额外性能预设,对显卡性能要求更高,更适合高配置显卡直接发挥模型原本能力。 带 KSK 的是针对显存和运行稳定性做过预设优化的版本,更适合作为共享镜像里的默认使用方案。
目前实测下来,5090 是使用 KSK 预设版本的最低推荐配置。如果租用 5090,使用带 KSK 后缀的模型会相对更稳、更合适;如果租用更高配置的显卡,则可以进一步尝试不带 KSK 的原始模型,并获得更快的推理速度和更高的性能表现。
其中 Gemma 4 31B 对硬件要求相对低一些,24GB 显存的 4090 理论上有机会运行;但 GPT-OSS-Abliterated 120B 对显存和整体配置要求更高,24GB 的 4090 可能会有较大压力,这部分目前没有作为稳定方案正式测试通过。因此,如果想更稳地体验这套镜像,还是更建议从 5090 起步。
这是一套已经做好 自启动 的镜像。租用实例后,服务会自动拉起,用户进入环境后即可通过 Ollama / Open WebUI 直接开始使用,不需要再手动重复部署流程。
认证作者

支持自启动