Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)

Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com>
Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
Glenn Jocher 2023-11-18 21:51:47 +01:00 committed by GitHub
parent b6baae584c
commit 02bf8003a8
No known key found for this signature in database
GPG key ID: 4AEE18F83AFDEB23
337 changed files with 6584 additions and 777 deletions

View file

@ -8,7 +8,7 @@ keywords: 计算机视觉, 数据集, Ultralytics, YOLO, 对象检测, 实例分
Ultralytics 支持多种数据集,方便开展计算机视觉任务,诸如检测、实例分割、姿态估计、分类和多对象跟踪。以下是主要 Ultralytics 数据集的列表,以及每个计算机视觉任务及其相应数据集的概述。
!!! note
!!! Note
Ultralytics 团队正在努力将文档翻译成多种语言。目前,本页面上的链接可能会直接指向英文文档页面,因为我们正在扩展多语言文档支持。感谢您的耐心等待 🙏!
@ -104,7 +104,7 @@ Ultralytics 支持多种数据集,方便开展计算机视觉任务,诸如
### 优化和压缩数据集的示例代码
!!! example "优化和压缩数据集"
!!! Example "优化和压缩数据集"
=== "Python"

View file

@ -8,7 +8,7 @@ keywords: Ultralytics, 文档, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR,
欢迎来到 Ultralytics 的模型文档!我们支持多种模型,每种模型都针对特定任务进行了优化,如[对象检测](/../tasks/detect.md)、[实例分割](/../tasks/segment.md)、[图像分类](/../tasks/classify.md)、[姿态估计](/../tasks/pose.md)和[多对象追踪](/../modes/track.md)。如果您有兴趣将您的模型架构贡献给 Ultralytics请查看我们的[贡献指南](/../help/contributing.md)。
!!! note
!!! Note
Ultralytics 团队正忙于将文档翻译成多种语言。本页面上的链接目前可能会导向英文文档页面,因为我们正在努力扩展多语言文档支持。感谢您的耐心等待 🙏!
@ -41,7 +41,7 @@ keywords: Ultralytics, 文档, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR,
## 入门:使用示例
!!! example ""
!!! Example "示例"
=== "Python"

View file

@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, 基准测试, 速度分析, 准确性分析, mAP5
在所有支持的导出格式上运行YOLOv8n基准测试包括ONNX、TensorRT等。更多导出参数的完整列表请见下方的参数部分。
!!! 示例 ""
!!! Example "示例"
=== "Python"

View file

@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 模型导出, ONNX, TensorRT, CoreML, Tenso
- **优化推理:** 导出的模型针对更快的推理时间进行优化。
- **教学视频:** 提供深入指导和教学,确保流畅的导出体验。
!!! 提示 "提示"
!!! Tip "提示"
* 导出到 ONNX 或 OpenVINO以实现高达 3 倍的 CPU 加速。
* 导出到 TensorRT以实现高达 5 倍的 GPU 加速。
@ -48,7 +48,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 模型导出, ONNX, TensorRT, CoreML, Tenso
将 YOLOv8n 模型导出为 ONNX 或 TensorRT 等不同格式。查看下面的参数部分,了解完整的导出参数列表。
!!! 示例 ""
!!! Example "示例"
=== "Python"

View file

@ -50,7 +50,7 @@ YOLOv8 的预测模式被设计为强大且多功能,包括以下特性:
Ultralytics YOLO 模型在进行推理时返回一个 Python `Results` 对象列表,或者当传入 `stream=True` 时,返回一个内存高效的 Python `Results` 对象生成器:
!!! 示例 "预测"
!!! Example "预测"
=== "使用 `stream=False` 返回列表"
```python
@ -92,7 +92,7 @@ Ultralytics YOLO 模型在进行推理时返回一个 Python `Results` 对象列
YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括静态图像、视频流和各种数据格式。表格还表示了每种来源是否可以在流式模式下使用,使用参数 `stream=True` ✅。流式模式对于处理视频或实时流非常有利,因为它创建了结果的生成器,而不是将所有帧加载到内存。
!!! 提示 "提示"
!!! Tip "提示"
使用 `stream=True` 处理长视频或大型数据集来高效地管理内存。当 `stream=False` 时,所有帧或数据点的结果都将存储在内存中,这可能很快导致内存不足错误。相对地,`stream=True` 使用生成器,只保留当前帧或数据点的结果在内存中,显著减少了内存消耗,防止内存不足问题。
@ -115,7 +115,7 @@ YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括
下面为每种来源类型使用代码的示例:
!!! 示例 "预测来源"
!!! Example "预测来源"
=== "图像"
对图像文件进行推理。
@ -327,7 +327,7 @@ YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括
`model.predict()` 在推理时接受多个参数,可以用来覆盖默认值:
!!! 示例
!!! Example
```python
from ultralytics import YOLO
@ -373,11 +373,20 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
### 图像
以下表格包含有效的Ultralytics图像格式。
下表包含了Ultralytics支持的有效图像格式。
| 图像后缀名 | 示例预测命令 | 参考链接 | |
----------------|-----------------------------------------|-------------------------------------------------------------------------------| | .bmp | `yolo predict source=image.bmp` | [Microsoft BMP文件格式](https://en.wikipedia.org/wiki/BMP_file_format) | | .dng | `yolo predict source=image.dng` | [Adobe DNG](https://www.adobe.com/products/photoshop/extend.displayTab2.html) | | .jpeg | `yolo predict source=image.jpeg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | | .jpg | `yolo predict source=image.jpg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | | .mpo | `yolo predict source=image.mpo` | [多图像对象](https://fileinfo.com/extension/mpo) | | .png | `yolo predict source=image.png` | [便携式网络图形](https://en.wikipedia.org/wiki/PNG) | | .tif | `yolo predict source=image.tif` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | | .tiff | `yolo predict source=image.tiff` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | | .webp | `yolo predict source=image.webp` | [WebP](https://en.wikipedia.org/wiki/WebP) | | .pfm | `yolo predict source=image.pfm` | [便携式浮点图](https://en.wikipedia.org/wiki/Netpbm#File_formats) |
| 图像后缀 | 示例预测命令 | 参考链接 |
|-------|----------------------------------|-------------------------------------------------------------------------------|
| .bmp | `yolo predict source=image.bmp` | [Microsoft BMP文件格式](https://en.wikipedia.org/wiki/BMP_file_format) |
| .dng | `yolo predict source=image.dng` | [Adobe DNG](https://www.adobe.com/products/photoshop/extend.displayTab2.html) |
| .jpeg | `yolo predict source=image.jpeg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) |
| .jpg | `yolo predict source=image.jpg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) |
| .mpo | `yolo predict source=image.mpo` | [多图像对象](https://fileinfo.com/extension/mpo) |
| .png | `yolo predict source=image.png` | [便携式网络图形](https://en.wikipedia.org/wiki/PNG) |
| .tif | `yolo predict source=image.tif` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) |
| .tiff | `yolo predict source=image.tiff` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) |
| .webp | `yolo predict source=image.webp` | [WebP](https://en.wikipedia.org/wiki/WebP) |
| .pfm | `yolo predict source=image.pfm` | [便携式浮点映射](https://en.wikipedia.org/wiki/Netpbm#File_formats) |
### 视频
@ -402,7 +411,7 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
所有Ultralytics的`predict()`调用都将返回一个`Results`对象列表:
!!! 示例 "结果"
!!! Example "结果"
```python
from ultralytics import YOLO
@ -454,7 +463,7 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
`Boxes`对象可用于索引、操作和转换边界框到不同格式。
!!! 示例 "边界框Boxes"
!!! Example "边界框Boxes"
```python
from ultralytics import YOLO
@ -465,14 +474,12 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
# 在图片上运行推理
results = model('bus.jpg')
# results列表
# 查看结果
for r in results:
print(r.boxes) # 打印包含检测边界框的Boxes对象
```
以下是`Boxes`类方法和属性的表格,包括它们的名称、类型和描述:
以下是`Boxes`类方法和属性的表格,包括它们的名称、类型和description:
| 名称 | 类型 | 描述 |
|-----------|---------------------|-------------------------|
@ -494,7 +501,7 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
`Masks`对象可用于索引、操作和将掩码转换为分段。
!!! 示例 "掩码Masks"
!!! Example "掩码Masks"
```python
from ultralytics import YOLO
@ -510,7 +517,7 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
print(r.masks) # 打印包含检测到的实例掩码的Masks对象
```
以下是`Masks`类方法和属性的表格,包括它们的名称、类型和描述:
以下是`Masks`类方法和属性的表格,包括它们的名称、类型和description:
| 名称 | 类型 | 描述 |
|-----------|---------------------|----------------------|
@ -527,7 +534,7 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
`Keypoints` 对象可以用于索引、操作和规范化坐标。
!!! 示例 "关键点"
!!! Example "关键点"
```python
from ultralytics import YOLO
@ -543,7 +550,7 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
print(r.keypoints) # 打印包含检测到的关键点的Keypoints对象
```
以下是`Keypoints`类方法和属性的表格,包括它们的名称、类型和描述:
以下是`Keypoints`类方法和属性的表格,包括它们的名称、类型和description:
| 名称 | 类型 | 描述 |
|-----------|--------------------|---------------------------|
@ -561,7 +568,7 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
`Probs` 对象可以用于索引,获取分类的 `top1``top5` 索引和分数。
!!! 示例 "概率"
!!! Example "概率"
```python
from ultralytics import YOLO
@ -596,7 +603,7 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
您可以使用`Result`对象的`plot()`方法来可视化预测结果。它会将`Results`对象中包含的所有预测类型框、掩码、关键点、概率等绘制到一个numpy数组上然后可以显示或保存。
!!! 示例 "绘制"
!!! Example "绘制"
```python
from PIL import Image
@ -640,7 +647,7 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
在多线程应用中使用YOLO模型时重要的是为每个线程实例化单独的模型对象或使用线程本地存储来防止冲突
!!! 示例 "线程安全推理"
!!! Example "线程安全推理"
在每个线程内实例化单个模型以实现线程安全的推理:
```python
@ -664,7 +671,7 @@ YOLOv8支持多种图像和视频格式如[data/utils.py](https://github.com/
以下是使用OpenCV`cv2`和YOLOv8在视频帧上运行推理的Python脚本。此脚本假设您已经安装了必要的包`opencv-python``ultralytics`)。
!!! 示例 "流媒体for循环"
!!! Example "流媒体for循环"
```python
import cv2

View file

@ -58,7 +58,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置
要在视频流中运行追踪器请使用已训练的检测、分割或姿态模型例如YOLOv8n、YOLOv8n-seg和YOLOv8n-pose。
!!! 示例 ""
!!! Example "示例"
=== "Python"
@ -97,7 +97,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置
追踪配置与预测模式共享一些属性,如`conf``iou``show`。有关进一步配置,请参见[预测](https://docs.ultralytics.com/modes/predict/)模型页面。
!!! 示例 ""
!!! Example "示例"
=== "Python"
@ -120,7 +120,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置
Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操作只需从[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)中复制一个追踪器配置文件(例如,`custom_tracker.yaml`)并根据您的需求修改任何配置(除了`tracker_type`)。
!!! 示例 ""
!!! Example "示例"
=== "Python"
@ -147,7 +147,7 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操
这是一个使用OpenCV`cv2`和YOLOv8在视频帧上运行物体追踪的Python脚本。此脚本假设您已经安装了必要的包`opencv-python``ultralytics`)。参数`persist=True`告诉追踪器当前的图像或帧是序列中的下一个,并且期望在当前图像中从上一个图像中获得追踪路径。
!!! 示例 "带追踪功能的流循环"
!!! Example "带追踪功能的流循环"
```python
import cv2
@ -195,7 +195,7 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操
在以下示例中我们演示了如何利用YOLOv8的追踪功能在多个视频帧上绘制检测物体的移动。这个脚本涉及打开视频文件、逐帧读取并使用YOLO模型识别并追踪各种物体。通过保留检测到的边界框的中心点并连接它们我们可以绘制表示跟踪物体路径的线条。
!!! 示例 "在多个视频帧上绘制追踪路径"
!!! Example "在多个视频帧上绘制追踪路径"
```python
from collections import defaultdict
@ -271,7 +271,3 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操
`threading.Thread`中参数`daemon=True`表示,这些线程会在主程序结束时关闭。然后我们用`start()`来开始线程,并使用`join()`来使主线程等待,直到两个追踪线程都结束。
最后,在所有线程完成任务后,使用`cv2.destroyAllWindows()`关闭显示结果的窗口。
!!! 示例 "带追踪功能的流循环"
```pyth

View file

@ -49,7 +49,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
在COCO128数据集上训练YOLOv8n模型100个时期图像大小为640。可以使用`device`参数指定训练设备。如果没有传递参数并且有可用的GPU则将使用GPU `device=0`,否则将使用`device=cpu`。有关完整列表的训练参数,请参见下面的参数部分。
!!! 示例 "单GPU和CPU训练示例"
!!! Example "单GPU和CPU训练示例"
设备将自动确定。如果有可用的GPU那么将使用它否则将在CPU上开始训练。
@ -84,7 +84,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
多GPU训练通过在多个GPU上分布训练负载实现对可用硬件资源的更有效利用。无论是通过Python API还是命令行界面都可以使用此功能。 若要启用多GPU训练请指定您希望使用的GPU设备ID。
!!! 示例 "多GPU训练示例"
!!! Example "多GPU训练示例"
要使用2个GPU进行训练请使用CUDA设备0和1使用以下命令。根据需要扩展到更多GPU。
@ -113,7 +113,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
要在Apple M1和M2芯片上启用训练您应该在启动训练过程时将设备指定为'mps'。以下是Python和命令行中如何做到这点的示例
!!! 示例 "MPS训练示例"
!!! Example "MPS训练示例"
=== "Python"
@ -146,7 +146,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
下面是使用Python和命令行恢复中断训练的示例
!!! 示例 "恢复训练示例"
!!! Example "恢复训练示例"
=== "Python"
@ -236,7 +236,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
使用Comet
!!! 示例 ""
!!! Example "示例"
=== "Python"
```python
@ -254,7 +254,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
使用ClearML
!!! 示例 ""
!!! Example "示例"
=== "Python"
```python
@ -272,7 +272,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
在[Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb)中使用TensorBoard
!!! 示例 ""
!!! Example "示例"
=== "CLI"
```bash
@ -282,7 +282,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
在本地使用TensorBoard运行下面的命令并在 http://localhost:6006/ 查看结果。
!!! 示例 ""
!!! Example "示例"
=== "CLI"
```bash

View file

@ -30,7 +30,7 @@ keywords: Ultralytics, YOLO 文档, YOLOv8, 验证, 模型评估, 超参数, 准
- **CLI 和 Python API** 根据您的验证偏好选择命令行界面或 Python API。
- **数据兼容性:** 与训练阶段使用的数据集以及自定义数据集无缝协作。
!!! tip "提示"
!!! Tip "提示"
* YOLOv8 模型会自动记住其训练设置,因此您可以很容易地仅使用 `yolo val model=yolov8n.pt``model('yolov8n.pt').val()` 在原始数据集上并以相同图像大小验证模型。
@ -38,7 +38,7 @@ keywords: Ultralytics, YOLO 文档, YOLOv8, 验证, 模型评估, 超参数, 准
在 COCO128 数据集上验证训练过的 YOLOv8n 模型的准确性。由于 `model` 保留了其训练的 `data` 和参数作为模型属性,因此无需传递任何参数。有关完整的导出参数列表,请参阅下面的参数部分。
!!! example ""
!!! Example "示例"
=== "Python"

View file

@ -8,7 +8,7 @@ keywords: Ultralytics安装pip安装UltralyticsDocker安装UltralyticsU
Ultralytics提供了多种安装方法包括pip、conda和Docker。通过`ultralytics`pip包安装最新稳定版的YOLOv8或者克隆[Ultralytics GitHub仓库](https://github.com/ultralytics/ultralytics)以获取最新版本。Docker可用于在隔离容器中执行包避免本地安装。
!!! 示例 "安装"
!!! Example "安装"
=== "Pip安装推荐"
使用pip安装`ultralytics`包,或通过运行`pip install -U ultralytics`更新现有安装。访问Python包索引(PyPI)了解更多关于`ultralytics`包的详细信息:[https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/)。
@ -129,7 +129,7 @@ Ultralytics提供了多种安装方法包括pip、conda和Docker。通过`ult
<strong>Watch:</strong> Ultralytics YOLO Quick Start Guide
</p>
!!! 提示 "提示"
!!! Tip "提示"
PyTorch的要求因操作系统和CUDA需要而异因此建议首先根据[https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)上的指南安装PyTorch。
@ -141,7 +141,7 @@ Ultralytics提供了多种安装方法包括pip、conda和Docker。通过`ult
Ultralytics命令行界面CLI允许您通过简单的单行命令使用无需Python环境。CLI不需要自定义或Python代码。您可以直接从终端使用`yolo`命令运行所有任务。查看[CLI指南](/../usage/cli.md)了解更多关于从命令行使用YOLOv8的信息。
!!! 示例
!!! Example
=== "语法"
@ -195,7 +195,7 @@ Ultralytics命令行界面CLI允许您通过简单的单行命令使用
yolo cfg
```
!!! 警告 "警告"
!!! Warning "警告"
参数必须以`arg=val`对的形式传递,用等号`=`分隔,并用空格` `分隔对。不要使用`--`参数前缀或逗号`,`分隔参数。
@ -211,7 +211,7 @@ YOLOv8的Python接口允许无缝集成进您的Python项目轻松加载、
例如用户可以加载一个模型训练它在验证集上评估性能甚至只需几行代码就可以将其导出到ONNX格式。查看[Python指南](/../usage/python.md)了解更多关于在Python项目中使用YOLOv8的信息。
!!! 示例
!!! Example
```python
from ultralytics import YOLO
@ -245,7 +245,7 @@ Ultralytics库提供了一个强大的设置管理系统允许您精细控制
若要了解当前设置的配置情况,您可以直接查看:
!!! 示例 "查看设置"
!!! Example "查看设置"
=== "Python"
您可以使用Python查看设置。首先从`ultralytics`模块导入`settings`对象。使用以下命令打印和返回设置:
@ -269,7 +269,7 @@ Ultralytics库提供了一个强大的设置管理系统允许您精细控制
Ultralytics允许用户轻松修改他们的设置。更改可以通过以下方式执行
!!! 示例 "更新设置"
!!! Example "更新设置"
=== "Python"
在Python环境中调用`settings`对象上的`update`方法来更改您的设置:

View file

@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, 图像分类, 预训练模型, YOLOv8n-cls, 训
图像分类器的输出是单个类别标签和一个置信度分数。当您只需要知道一幅图像属于哪个类别、而不需要知道该类别对象的位置或它们的确切形状时,图像分类非常有用。
!!! tip "提示"
!!! Tip "提示"
YOLOv8分类模型使用`-cls`后缀,即`yolov8n-cls.pt`,并预先训练在[ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)上。
@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, 图像分类, 预训练模型, YOLOv8n-cls, 训
在MNIST160数据集上训练YOLOv8n-cls模型100个时期图像尺寸为64。有关可用参数的完整列表请参见[配置](/../usage/cfg.md)页面。
!!! example ""
!!! Example "示例"
=== "Python"
@ -76,7 +76,7 @@ YOLO分类数据集的格式详情请参见[数据集指南](/../datasets/classi
在MNIST160数据集上验证训练好的YOLOv8n-cls模型准确性。不需要传递任何参数因为`model`保留了它的训练`data`和参数作为模型属性。
!!! example ""
!!! Example "示例"
=== "Python"
@ -103,7 +103,7 @@ YOLO分类数据集的格式详情请参见[数据集指南](/../datasets/classi
使用训练过的YOLOv8n-cls模型对图像进行预测。
!!! example ""
!!! Example "示例"
=== "Python"
@ -130,7 +130,7 @@ YOLO分类数据集的格式详情请参见[数据集指南](/../datasets/classi
将YOLOv8n-cls模型导出为其他格式如ONNX、CoreML等。
!!! example ""
!!! Example "示例"
=== "Python"

View file

@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, 目标检测, 预训练模型, 训练, 验证,
<strong>观看:</strong>使用预训练的Ultralytics YOLOv8模型进行目标检测。
</p>
!!! tip "提示"
!!! Tip "提示"
YOLOv8 Detect 模型是默认的 YOLOv8 模型,即 `yolov8n.pt` ,并在 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 数据集上进行了预训练。
@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, 目标检测, 预训练模型, 训练, 验证,
在COCO128数据集上使用图像尺寸640将YOLOv8n训练100个epochs。要查看可用参数的完整列表请参阅 [配置](/../usage/cfg.md) 页面。
!!! example ""
!!! Example "示例"
=== "Python"
@ -86,7 +86,7 @@ YOLO检测数据集格式可以在 [数据集指南](/../datasets/detect/index.m
在COCO128数据集上验证训练好的YOLOv8n模型准确性。无需传递参数`model` 作为模型属性保留其训练的 `data` 和参数。
!!! example ""
!!! Example "示例"
=== "Python"
@ -115,7 +115,7 @@ YOLO检测数据集格式可以在 [数据集指南](/../datasets/detect/index.m
使用训练好的YOLOv8n模型在图像上进行预测。
!!! example ""
!!! Example "示例"
=== "Python"
@ -142,7 +142,7 @@ YOLO检测数据集格式可以在 [数据集指南](/../datasets/detect/index.m
将YOLOv8n模型导出为ONNX、CoreML等不同格式。
!!! example ""
!!! Example "示例"
=== "Python"

View file

@ -1,7 +1,7 @@
---
评论:真
描述:学习如何使用Ultralytics YOLOv8进行姿态估计任务。找到预训练模型学习如何训练、验证、预测以及导出你自己的模型。
关键词:Ultralytics, YOLO, YOLOv8, 姿态估计, 关键点检测, 物体检测, 预训练模型, 机器学习, 人工智能
comments: true
description: 学习如何使用Ultralytics YOLOv8进行姿态估计任务。找到预训练模型学习如何训练、验证、预测以及导出你自己的模型。
keywords: Ultralytics, YOLO, YOLOv8, 姿态估计, 关键点检测, 物体检测, 预训练模型, 机器学习, 人工智能
---
# 姿态估计
@ -23,7 +23,7 @@
<strong>观看:</strong>使用Ultralytics YOLOv8进行姿态估计。
</p>
!!! tip "提示"
!!! Tip "提示"
YOLOv8 _姿态_ 模型使用 `-pose` 后缀,例如 `yolov8n-pose.pt`。这些模型在 [COCO关键点](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) 数据集上进行了训练,并且适用于各种姿态估计任务。
@ -51,7 +51,7 @@
在COCO128姿态数据集上训练一个YOLOv8姿态模型。
!!! example ""
!!! Example "示例"
=== "Python"
@ -87,7 +87,7 @@ YOLO姿态数据集格式可详细找到在[数据集指南](/../datasets/pose/i
在COCO128姿态数据集上验证训练好的YOLOv8n姿态模型的准确性。没有参数需要传递因为`模型`保存了其训练`数据`和参数作为模型属性。
!!! example ""
!!! Example "示例"
=== "Python"
@ -116,7 +116,7 @@ YOLO姿态数据集格式可详细找到在[数据集指南](/../datasets/pose/i
使用训练好的YOLOv8n姿态模型在图片上运行预测。
!!! example ""
!!! Example "示例"
=== "Python"
@ -143,7 +143,7 @@ YOLO姿态数据集格式可详细找到在[数据集指南](/../datasets/pose/i
将YOLOv8n姿态模型导出为ONNX、CoreML等不同格式。
!!! example ""
!!! Example "示例"
=== "Python"

View file

@ -23,7 +23,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体
<strong>观看:</strong> 在Python中使用预训练的Ultralytics YOLOv8模型运行分割。
</p>
!!! tip "提示"
!!! Tip "提示"
YOLOv8分割模型使用`-seg`后缀,即`yolov8n-seg.pt`,并在[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)上进行预训练。
@ -50,7 +50,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体
在COCO128-seg数据集上以640的图像尺寸训练YOLOv8n-seg模型共100个周期。想了解更多可用的参数请查阅[配置](/../usage/cfg.md)页面。
!!! example ""
!!! Example "示例"
=== "Python"
@ -86,7 +86,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体
在COCO128-seg数据集上验证已训练的YOLOv8n-seg模型的准确性。不需要传递任何参数因为`model`保留了其训练的`data`和作为模型属性的设置。
!!! example ""
!!! Example "示例"
=== "Python"
@ -119,7 +119,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体
使用已训练的YOLOv8n-seg模型在图像上进行预测。
!!! example ""
!!! Example "示例"
=== "Python"
@ -146,7 +146,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体
将YOLOv8n-seg模型导出为ONNX、CoreML等不同格式。
!!! example ""
!!! Example "示例"
=== "Python"