登录
YOLO26
YOLO26
star0
0/小时
v26.0
最新

Ultralytics YOLO26

概述

Ultralytics YOLO26 - Ultralytics YOLO 文档

Ultralytics YOLO26 是 YOLO 系列实时目标检测器的最新演进版本,专为边缘设备和低功耗设备从头打造。它引入了流线型设计,去除了不必要的复杂性,同时整合了针对性的创新,以提供更快速、更轻量且更易于访问的部署。

YOLO26 的架构遵循三个核心原则:

  • 简单性:YOLO26 是原生的端到端模型,直接生成预测结果,无需非极大值抑制(NMS)。通过消除这一后处理步骤,推理变得更快、更轻量,且更容易在现实系统中部署。这种突破性方法最初由清华大学的 Ao Wang 在 YOLOv10 中首创,并在 YOLO26 中得到了进一步发展。
  • 部署效率:端到端设计省去了整个流水线的一个阶段,极大地简化了集成,降低了延迟,并使在不同环境中的部署更加稳健。
  • 训练创新:YOLO26 引入了 MuSGD 优化器,这是 SGD 和 Muon 的混合体——受 Moonshot AI 在 LLM 训练中 Kimi K2 突破的启发。该优化器带来了增强的稳定性和更快的收敛速度,将语言模型的优化进步转移到了计算机视觉中。
  • 特定任务优化:YOLO26 针对特定任务引入了针对性的改进,包括用于分割的语义分割损失和多尺度 proto 模块,用于高精度姿态估计的残差对数似然估计(RLE),以及用于解决 OBB 边界问题的带角度损失的优化解码。

这些创新共同打造了一个模型家族,它在小物体检测上实现了更高的准确性,提供了无缝的部署体验,并且在 CPU 上的运行速度提高了 43%——这使得 YOLO26 成为迄今为止最实用、最适合资源受限环境的 YOLO 模型之一。

主要特性

  • 移除 DFL:分布焦点损失(DFL)模块虽然有效,但往往会使导出变得复杂并限制硬件兼容性。YOLO26 完全移除了 DFL,简化了推理并扩大了对边缘和低功耗设备的支持。
  • 端到端无 NMS 推理:与依赖 NMS 作为独立后处理步骤的传统检测器不同,YOLO26 是原生的端到端模型。预测直接生成,减少了延迟,使集成到生产系统中更快、更轻量、更可靠。
  • ProgLoss + STAL:改进的损失函数提高了检测精度,特别是在小物体识别方面有显著改进,这是物联网、机器人、航空影像和其他边缘应用的关键需求。
  • MuSGD 优化器:一种结合了 SGD 和 Muon 的新型混合优化器。受 Moonshot AI 的 Kimi K2 启发,MuSGD 将 LLM 训练中的先进优化方法引入计算机视觉,实现了更稳定的训练和更快的收敛。
  • CPU 推理速度提升高达 43%:专为边缘计算优化,YOLO26 提供了显著更快的 CPU 推理速度,确保在没有 GPU 的设备上也能实现实时性能。
  • 实例分割增强:引入语义分割损失以改善模型收敛,以及升级的 proto 模块,利用多尺度信息获得卓越的掩码质量。
  • 精确姿态估计:集成了残差对数似然估计(RLE)以实现更精确的关键点定位,并优化了解码过程以提高推理速度。
  • 改进的 OBB 解码:引入专门的角度损失以提高方形物体的检测精度,并优化 OBB 解码以解决边界不连续问题。

支持的任务和模式

YOLO26 建立在早期 Ultralytics YOLO 版本建立的多功能模型范围之上,为各种计算机视觉任务提供了增强的支持:

模型文件名任务推理验证训练导出
YOLO26yolo26n.pt yolo26s.pt yolo26m.pt yolo26l.pt yolo26x.pt检测 (Detection)
YOLO26-segyolo26n-seg.pt yolo26s-seg.pt yolo26m-seg.pt yolo26l-seg.pt yolo26x-seg.pt实例分割 (Instance Segmentation)
YOLO26-poseyolo26n-pose.pt yolo26s-pose.pt yolo26m-pose.pt yolo26l-pose.pt yolo26x-pose.pt姿态/关键点 (Pose/Keypoints)
YOLO26-obbyolo26n-obb.pt yolo26s-obb.pt yolo26m-obb.pt yolo26l-obb.pt yolo26x-obb.pt定向检测 (Oriented Detection)
YOLO26-clsyolo26n-cls.pt yolo26s-cls.pt yolo26m-cls.pt yolo26l-cls.pt yolo26x-cls.pt分类 (Classification)

这一统一框架确保 YOLO26 适用于实时检测、分割、分类、姿态估计和定向目标检测——所有这些都支持训练、验证、推理和导出。

性能指标

检测 (COCO)

请参阅检测文档以获取使用这些在 COCO 上训练的模型(包含 80 个预训练类别)的示例。

模型尺寸 (像素)mAPval 50-95mAPval 50-95(e2e)CPU ONNX 速度 (ms)T4 TensorRT10 速度 (ms)参数量 (M)FLOPs (B)
YOLO26n64040.940.138.9 ± 0.71.7 ± 0.02.45.4
YOLO26s64048.647.887.2 ± 0.92.5 ± 0.09.520.7
YOLO26m64053.152.5220.0 ± 1.44.7 ± 0.120.468.2
YOLO26l64055.054.4286.2 ± 2.06.2 ± 0.224.886.4
YOLO26x64057.556.9525.8 ± 4.011.8 ± 0.255.7193.9

分割 (COCO)

模型尺寸 (像素)mAPbox 50-95(e2e)mAPmask 50-95(e2e)CPU ONNX 速度 (ms)T4 TensorRT10 速度 (ms)参数量 (M)FLOPs (B)
YOLO26n-seg64039.633.953.3 ± 0.52.1 ± 0.02.79.1
YOLO26s-seg64047.340.0118.4 ± 0.93.3 ± 0.010.434.2
YOLO26m-seg64052.544.1328.2 ± 2.46.7 ± 0.123.6121.5
YOLO26l-seg64054.445.5387.0 ± 3.78.0 ± 0.128.0139.8
YOLO26x-seg64056.547.0787.0 ± 6.816.4 ± 0.162.8313.5

(注:文档中还包含分类、姿态估计和 OBB 的详细性能表,此处省略以保持简洁,格式与上述类似)

使用示例

本节提供简单的 YOLO26 训练和推理示例。有关这些模式和其他模式的完整文档,请参阅预测、训练、验证和导出文档页面。

Python

可以将预训练的 *.pt 模型以及配置 *.yaml 文件传递给 YOLO() 类,以在 Python 中创建模型实例:

from ultralytics import YOLO

# 加载 COCO 预训练的 YOLO26n 模型
model = YOLO("yolo26n.pt")

# 在 COCO8 示例数据集上训练模型 100 个 epoch
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

# 使用 YOLO26n 模型对 'bus.jpg' 图像运行推理
results = model("path/to/bus.jpg")

CLI

也可以使用 CLI 命令直接运行模型:

# 加载 COCO 预训练的 YOLO26n 模型并在 COCO8 示例数据集上训练 100 个 epoch
yolo train model=yolo26n.pt data=coco8.yaml epochs=100 imgsz=640

# 加载 COCO 预训练的 YOLO26n 模型并对 'bus.jpg' 图像运行推理
yolo predict model=yolo26n.pt source=path/to/bus.jpg

YOLOE-26: 开放词汇实例分割

YOLOE-26 将高性能的 YOLO26 架构与 YOLOE 系列的开放词汇能力相结合。它支持使用文本提示、视觉提示或用于零样本推理的无提示模式对任何对象类别进行实时检测和分割,从而有效地消除了固定类别训练的限制。

使用示例 (文本提示)

文本提示允许您通过文本描述指定希望检测的类别。以下代码展示了如何使用 YOLOE-26 检测图像中的人和公共汽车:

from ultralytics import YOLO

# 初始化模型
model = YOLO("yoloe-26l-seg.pt")  # 或选择 yoloe-26s/m-seg.pt 以获得不同尺寸

# 设置文本提示以检测 person 和 bus。加载模型后只需执行一次。
names = ["person", "bus"]
model.set_classes(names, model.get_text_pe(names))

# 对给定图像运行检测
results = model.predict("path/to/image.jpg")

# 显示结果
results[0].show()

引用与致谢

Ultralytics YOLO26 出版物

由于模型快速发展的特性,Ultralytics 尚未为 YOLO26 发表正式的研究论文。相反,我们专注于提供尖端模型并使其易于使用。有关 YOLO 特性、架构和使用的最新更新,请访问我们的 GitHub 仓库和文档。

如果您在工作中使用了 YOLO26 或其他 Ultralytics 软件,请按如下方式引用:

@software{yolo26_ultralytics,
  author = {Glenn Jocher and Jing Qiu},
  title = {Ultralytics YOLO26},
  version = {26.0.0},
  year = {2026},
  url = {https://github.com/ultralytics/ultralytics},
  orcid = {0000-0001-5950-6979, 0000-0003-3783-7069},
  license = {AGPL-3.0}
}

常见问题 (FAQ)

YOLO26 相比 YOLO11 有哪些主要改进?

  • 移除 DFL:简化导出并扩展边缘兼容性。
  • 端到端无 NMS 推理:消除 NMS,实现更快、更简单的部署。
  • ProgLoss + STAL:提高准确性,特别是在小物体上。
  • MuSGD 优化器:结合了 SGD 和 Muon(受 Moonshot 的 Kimi K2 启发),实现更稳定、更高效的训练。
  • CPU 推理速度提升高达 43%:纯 CPU 设备的主要性能提升。

YOLO26 支持哪些任务? YOLO26 是一个统一的模型家族,提供对多种计算机视觉任务的端到端支持:目标检测、实例分割、图像分类、姿态估计、定向目标检测 (OBB)。

@苍耳阿猫
苍耳阿猫认证作者
镜像信息
已使用0
运行时长
0 H
镜像大小
30GB
最后更新时间
2026-01-16
支持卡型
RTX40系48G RTX40系RTX50系
+3
框架版本
PyTorch-2.8.0
CUDA版本
12.8
应用
JupyterLab: 8888
版本
v26.0
2026-01-16
PyTorch:2.8.0 | CUDA:12.8 | 大小:30.00GB
logo

隶属于优刻得科技股份有限公司

股票代码:688158

优刻得是中立、安全的云计算服务平台