❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!
🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦
Satori-7B-Round2
模型参数量仅 7B 就在数学推理能力上超越 70B 和一众小型模型,MIT与哈佛基于行动-思维链(COAT)
机制训练的 Satori-7B-Round2 推理模型。
本项目基于 Satori-7B-Round2 推理模型和 Gradio API 提供了一个友好的 Web UI,方便快速部署实例后立即体验 Satori-7B-Round2 模型的推理能力。
首先,在镜像发布页
可以查看到我制作完成并分享到平台的实例镜像,通过右侧的使用该镜像创建实例
可以快速创建一个实例。
Satori-7B-Round2 模型的参数量为 7B
大小,这里推荐配置 4090 单卡
。也可按需选择配置后再立即部署
。
稍等片刻后,实例就会自动创建并启动,通过查看实例列表
可查看实例的运行状态,并支持随时关闭或启用。
实例同时提供了一个 JupyterLab
应用作为交互式开发环境,它提供了更现代化和灵活的用户界面,方便我们继续后续的步骤。
启动实例后,你可以通过 JupyterLab
应用的终端输入以下命令来快速启动服务:
python gradio_app.py --share --host 0.0.0.0 --port 7860
WebUI 服务默认通过 7860
端口进行访问,镜像已经配置了端口转发,你可以直接通过公网访问。
参数 | 说明 | 示例命令 |
---|---|---|
--port | 指定应用程序运行的端口号 | python gradio_app.py --port 7860 |
--share | 允许通过公网访问应用程序 | python gradio_app.py --share |
--host | 指定应用程序绑定的主机地址 | python gradio_app.py --host 0.0.0.0 |
镜像已内置模型,运行时会检测本地模型路径,不用再重新配置和下载模型,程序会自动启动推理引擎和 Gradio App 并输出访问地址,大致如下:
* Running on local URL: http://0.0.0.0:7860
* Running on public URL: https://62c32ff6bbd7ca4d2f.gradio.live
Satori-7B-Round2 是由MIT、哈佛大学等机构研究者推出的 7B 参数大型语言模型,专注于提升推理能力。基于 Qwen-2.5-Math-7B,Satori 通过小规模的格式微调和大规模的增强学习实现了先进的推理性能。
该模型引入了行动-思维链(COAT)机制,通过特殊的元动作标记引导模型进行推理。Satori 在数学推理和跨领域任务中表现出色,展现了优异的泛化能力。
行动-思维链(COAT)推理:
两阶段训练框架:
在数学推理中,Satori-7B-Round2 的表现已达到 SOTA 性能,并优于使用相同基础模型(Qwen-2.5-Math-7B)的 Qwen-2.5-Math-7B-Instruct。甚至大幅度超越了 Llama-3.1-70B-Instruct 这个参数量比它还大十倍的模型。
仅在数学数据集上训练的 Satori-7B-Round2 在跨多个领域外的推理基准测试中表现出强大的迁移能力,并且大幅超越了 Qwen-2.5-Math-7B-Instruct。
尽管没有在其他领域进行训练,Satori-7B-Round2 的性能与或超过了其他小型通用指令模型,与 Llama-3.1-70B-Instruct 等大型模型不相上下。
❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!
🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦