Skip to content

首页

介绍 Ultralytics YOLO11,这是备受赞誉的实时目标检测和图像分割模型的最新版本。YOLO11 基于 深度学习计算机视觉 的最新进展,在速度和 准确性 方面提供了无与伦比的性能。其简化的设计使其适用于各种应用,并易于适应不同的硬件平台,从边缘设备到云 API。

探索 Ultralytics 文档,这是一个全面的资源,旨在帮助您了解和利用其功能和能力。无论您是经验丰富的 机器学习 从业者还是该领域的新手,这个中心旨在最大化 YOLO 在您项目中的潜力。


Ultralytics GitHub space Ultralytics LinkedIn space Ultralytics Twitter space Ultralytics YouTube space Ultralytics TikTok space Ultralytics BiliBili space Ultralytics Discord

从哪里开始



观看: 如何在 Google Colab 上训练 YOLO 模型处理您的自定义数据集。

YOLO: 简史

YOLO (You Only Look Once),一个流行的目标检测图像分割模型,由华盛顿大学的 Joseph Redmon 和 Ali Farhadi 开发。YOLO 于 2015 年发布,因其高速和高准确性迅速获得欢迎。

  • YOLOv2,2016 年发布,通过引入批量归一化、锚框和维度聚类改进了原始模型。
  • YOLOv3,2018 年发布,通过使用更高效的主干网络、多个锚点和空间金字塔池化进一步提升了模型性能。
  • YOLOv4 于 2020 年发布,引入了 Mosaic 数据增强、新的无锚检测头和新的损失函数等创新。
  • YOLOv5 进一步提升了模型性能,并增加了超参数优化、集成实验跟踪和自动导出到流行导出格式等新功能。
  • YOLOv6Meituan 于 2022 年开源,并在公司的许多自主配送机器人中使用。
  • YOLOv7 增加了额外的任务,如在 COCO 关键点数据集上的姿态估计。
  • YOLOv8 由 Ultralytics 于 2023 年发布。YOLOv8 引入了新功能和改进,以增强性能、灵活性和效率,支持一系列视觉 AI 任务,
  • YOLOv9 引入了创新方法,如可编程梯度信息 (PGI) 和广义高效层聚合网络 (GELAN)。
  • YOLOv10清华大学 的研究人员使用 Ultralytics Python 包 创建。此版本通过引入端到端头,消除了非极大值抑制 (NMS) 的需求,提供了实时的目标检测 进展。
  • YOLO11 🚀 新: Ultralytics 最新的 YOLO 模型在多个任务中提供最先进的(SOTA)性能,包括检测分割姿态估计跟踪分类,利用跨多种 AI 应用和领域的能力。

YOLO 许可证:Ultralytics YOLO 是如何授权的?

Ultralytics 提供两种许可证选项以适应不同的使用场景:

  • AGPL-3.0 许可证:这个OSI 批准的开源许可证非常适合学生和爱好者,促进开放协作和知识共享。更多详情请参见LICENSE文件。
  • 企业许可证:专为商业用途设计,该许可证允许将 Ultralytics 软件和 AI 模型无缝集成到商业产品和服务的商业产品和服务中,绕过 AGPL-3.0 的开源要求。如果您的场景涉及将我们的解决方案嵌入到商业产品中,请通过Ultralytics Licensing联系我们。

我们的许可策略旨在确保对我们的开源项目的任何改进都能回馈社区。我们深信开源的原则 ❤️,我们的使命是确保我们的贡献能够以对所有人有益的方式被利用和扩展。

常见问题

什么是 Ultralytics YOLO,它如何改进目标检测?

Ultralytics YOLO 是备受赞誉的 YOLO(You Only Look Once)系列在实时目标检测和图像分割方面的最新进展。它在之前版本的基础上引入了新功能和改进,以提高性能、灵活性和效率。YOLO 支持各种视觉 AI 任务,如检测、分割、姿态估计、跟踪和分类。其最先进的架构确保了卓越的速度和准确性,适用于包括边缘设备和云 API 在内的多种应用。

如何开始使用 YOLO 的安装和设置?

开始使用 YOLO 既快速又简单。您可以使用 pip 安装 Ultralytics 包,并在几分钟内启动并运行。以下是基本的安装命令:

Example

pip install ultralytics

如需全面的逐步指南,请访问我们的快速入门指南。该资源将帮助您完成安装说明、初始设置以及运行您的第一个模型。

如何在我的数据集上训练自定义 YOLO 模型?

在您的数据集上训练自定义 YOLO 模型涉及几个详细步骤:

  1. 准备您的标注数据集。
  2. 在 YAML 文件中配置训练参数。
  3. 使用 yolo train 命令开始训练。

以下是示例代码:

Example

from ultralytics import YOLO

# 加载预训练的 YOLO 模型(您可以选择 n, s, m, l, 或 x 版本)
model = YOLO("yolo11n.pt")

# 在您的自定义数据集上开始训练
model.train(data="path/to/dataset.yaml", epochs=100, imgsz=640)
# 从命令行训练 YOLO 模型
yolo train data=path/to/dataset.yaml epochs=100 imgsz=640

如需详细演练,请查看我们的训练模型指南,其中包含示例和优化训练过程的技巧。

Ultralytics YOLO 有哪些可用的许可证选项?

Ultralytics 为 YOLO 提供两种许可证选项:

  • AGPL-3.0 许可证:这个开源许可证非常适合教育和非商业用途,促进开放协作。
  • 企业许可证:专为商业应用设计,允许将 Ultralytics 软件无缝集成到商业产品中,而无需遵守 AGPL-3.0 许可证的限制。

更多详情,请访问我们的许可证页面。

Ultralytics YOLO 如何用于实时目标跟踪?

Ultralytics YOLO 支持高效且可定制的多目标跟踪。要利用跟踪功能,您可以使用 yolo track 命令,如下所示:

Example

from ultralytics import YOLO

# 加载预训练的 YOLO 模型
model = YOLO("yolo11n.pt")

# 在视频中开始跟踪对象
# 您也可以使用实时视频流或摄像头输入
model.track(source="path/to/video.mp4")
# 从命令行对视频进行目标跟踪
# 您可以指定不同的来源,如摄像头(0)或 RTSP 流
yolo track source=path/to/video.mp4

有关设置和运行目标跟踪的详细指南,请查看我们的跟踪模式文档,其中解释了配置和在实时场景中的实际应用。


📅 Created 11 months ago ✏️ Updated 9 days ago

Comments