Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)
Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
parent
b6baae584c
commit
02bf8003a8
337 changed files with 6584 additions and 777 deletions
|
|
@ -8,7 +8,7 @@ keywords: 计算机视觉, 数据集, Ultralytics, YOLO, 对象检测, 实例分
|
|||
|
||||
Ultralytics 支持多种数据集,方便开展计算机视觉任务,诸如检测、实例分割、姿态估计、分类和多对象跟踪。以下是主要 Ultralytics 数据集的列表,以及每个计算机视觉任务及其相应数据集的概述。
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
Ultralytics 团队正在努力将文档翻译成多种语言。目前,本页面上的链接可能会直接指向英文文档页面,因为我们正在扩展多语言文档支持。感谢您的耐心等待 🙏!
|
||||
|
||||
|
|
@ -104,7 +104,7 @@ Ultralytics 支持多种数据集,方便开展计算机视觉任务,诸如
|
|||
|
||||
### 优化和压缩数据集的示例代码
|
||||
|
||||
!!! example "优化和压缩数据集"
|
||||
!!! Example "优化和压缩数据集"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -8,7 +8,7 @@ keywords: Ultralytics, 文档, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR,
|
|||
|
||||
欢迎来到 Ultralytics 的模型文档!我们支持多种模型,每种模型都针对特定任务进行了优化,如[对象检测](/../tasks/detect.md)、[实例分割](/../tasks/segment.md)、[图像分类](/../tasks/classify.md)、[姿态估计](/../tasks/pose.md)和[多对象追踪](/../modes/track.md)。如果您有兴趣将您的模型架构贡献给 Ultralytics,请查看我们的[贡献指南](/../help/contributing.md)。
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
Ultralytics 团队正忙于将文档翻译成多种语言。本页面上的链接目前可能会导向英文文档页面,因为我们正在努力扩展多语言文档支持。感谢您的耐心等待 🙏!
|
||||
|
||||
|
|
@ -41,7 +41,7 @@ keywords: Ultralytics, 文档, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR,
|
|||
|
||||
## 入门:使用示例
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, 基准测试, 速度分析, 准确性分析, mAP5
|
|||
|
||||
在所有支持的导出格式上运行YOLOv8n基准测试,包括ONNX、TensorRT等。更多导出参数的完整列表请见下方的参数部分。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 模型导出, ONNX, TensorRT, CoreML, Tenso
|
|||
- **优化推理:** 导出的模型针对更快的推理时间进行优化。
|
||||
- **教学视频:** 提供深入指导和教学,确保流畅的导出体验。
|
||||
|
||||
!!! 提示 "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
* 导出到 ONNX 或 OpenVINO,以实现高达 3 倍的 CPU 加速。
|
||||
* 导出到 TensorRT,以实现高达 5 倍的 GPU 加速。
|
||||
|
|
@ -48,7 +48,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 模型导出, ONNX, TensorRT, CoreML, Tenso
|
|||
|
||||
将 YOLOv8n 模型导出为 ONNX 或 TensorRT 等不同格式。查看下面的参数部分,了解完整的导出参数列表。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -50,7 +50,7 @@ YOLOv8 的预测模式被设计为强大且多功能,包括以下特性:
|
|||
|
||||
Ultralytics YOLO 模型在进行推理时返回一个 Python `Results` 对象列表,或者当传入 `stream=True` 时,返回一个内存高效的 Python `Results` 对象生成器:
|
||||
|
||||
!!! 示例 "预测"
|
||||
!!! Example "预测"
|
||||
|
||||
=== "使用 `stream=False` 返回列表"
|
||||
```python
|
||||
|
|
@ -92,7 +92,7 @@ Ultralytics YOLO 模型在进行推理时返回一个 Python `Results` 对象列
|
|||
|
||||
YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括静态图像、视频流和各种数据格式。表格还表示了每种来源是否可以在流式模式下使用,使用参数 `stream=True` ✅。流式模式对于处理视频或实时流非常有利,因为它创建了结果的生成器,而不是将所有帧加载到内存。
|
||||
|
||||
!!! 提示 "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
使用 `stream=True` 处理长视频或大型数据集来高效地管理内存。当 `stream=False` 时,所有帧或数据点的结果都将存储在内存中,这可能很快导致内存不足错误。相对地,`stream=True` 使用生成器,只保留当前帧或数据点的结果在内存中,显著减少了内存消耗,防止内存不足问题。
|
||||
|
||||
|
|
@ -115,7 +115,7 @@ YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括
|
|||
|
||||
下面为每种来源类型使用代码的示例:
|
||||
|
||||
!!! 示例 "预测来源"
|
||||
!!! Example "预测来源"
|
||||
|
||||
=== "图像"
|
||||
对图像文件进行推理。
|
||||
|
|
@ -327,7 +327,7 @@ YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括
|
|||
|
||||
`model.predict()` 在推理时接受多个参数,可以用来覆盖默认值:
|
||||
|
||||
!!! 示例
|
||||
!!! Example
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -373,11 +373,20 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
### 图像
|
||||
|
||||
以下表格包含有效的Ultralytics图像格式。
|
||||
下表包含了Ultralytics支持的有效图像格式。
|
||||
|
||||
| 图像后缀名 | 示例预测命令 | 参考链接 | |
|
||||
|
||||
----------------|-----------------------------------------|-------------------------------------------------------------------------------| | .bmp | `yolo predict source=image.bmp` | [Microsoft BMP文件格式](https://en.wikipedia.org/wiki/BMP_file_format) | | .dng | `yolo predict source=image.dng` | [Adobe DNG](https://www.adobe.com/products/photoshop/extend.displayTab2.html) | | .jpeg | `yolo predict source=image.jpeg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | | .jpg | `yolo predict source=image.jpg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | | .mpo | `yolo predict source=image.mpo` | [多图像对象](https://fileinfo.com/extension/mpo) | | .png | `yolo predict source=image.png` | [便携式网络图形](https://en.wikipedia.org/wiki/PNG) | | .tif | `yolo predict source=image.tif` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | | .tiff | `yolo predict source=image.tiff` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | | .webp | `yolo predict source=image.webp` | [WebP](https://en.wikipedia.org/wiki/WebP) | | .pfm | `yolo predict source=image.pfm` | [便携式浮点图](https://en.wikipedia.org/wiki/Netpbm#File_formats) |
|
||||
| 图像后缀 | 示例预测命令 | 参考链接 |
|
||||
|-------|----------------------------------|-------------------------------------------------------------------------------|
|
||||
| .bmp | `yolo predict source=image.bmp` | [Microsoft BMP文件格式](https://en.wikipedia.org/wiki/BMP_file_format) |
|
||||
| .dng | `yolo predict source=image.dng` | [Adobe DNG](https://www.adobe.com/products/photoshop/extend.displayTab2.html) |
|
||||
| .jpeg | `yolo predict source=image.jpeg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) |
|
||||
| .jpg | `yolo predict source=image.jpg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) |
|
||||
| .mpo | `yolo predict source=image.mpo` | [多图像对象](https://fileinfo.com/extension/mpo) |
|
||||
| .png | `yolo predict source=image.png` | [便携式网络图形](https://en.wikipedia.org/wiki/PNG) |
|
||||
| .tif | `yolo predict source=image.tif` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) |
|
||||
| .tiff | `yolo predict source=image.tiff` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) |
|
||||
| .webp | `yolo predict source=image.webp` | [WebP](https://en.wikipedia.org/wiki/WebP) |
|
||||
| .pfm | `yolo predict source=image.pfm` | [便携式浮点映射](https://en.wikipedia.org/wiki/Netpbm#File_formats) |
|
||||
|
||||
### 视频
|
||||
|
||||
|
|
@ -402,7 +411,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
所有Ultralytics的`predict()`调用都将返回一个`Results`对象列表:
|
||||
|
||||
!!! 示例 "结果"
|
||||
!!! Example "结果"
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -454,7 +463,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
`Boxes`对象可用于索引、操作和转换边界框到不同格式。
|
||||
|
||||
!!! 示例 "边界框(Boxes)"
|
||||
!!! Example "边界框(Boxes)"
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -465,14 +474,12 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
# 在图片上运行推理
|
||||
results = model('bus.jpg')
|
||||
|
||||
# results列表
|
||||
|
||||
# 查看结果
|
||||
for r in results:
|
||||
print(r.boxes) # 打印包含检测边界框的Boxes对象
|
||||
```
|
||||
|
||||
以下是`Boxes`类方法和属性的表格,包括它们的名称、类型和描述:
|
||||
以下是`Boxes`类方法和属性的表格,包括它们的名称、类型和description:
|
||||
|
||||
| 名称 | 类型 | 描述 |
|
||||
|-----------|---------------------|-------------------------|
|
||||
|
|
@ -494,7 +501,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
`Masks`对象可用于索引、操作和将掩码转换为分段。
|
||||
|
||||
!!! 示例 "掩码(Masks)"
|
||||
!!! Example "掩码(Masks)"
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -510,7 +517,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
print(r.masks) # 打印包含检测到的实例掩码的Masks对象
|
||||
```
|
||||
|
||||
以下是`Masks`类方法和属性的表格,包括它们的名称、类型和描述:
|
||||
以下是`Masks`类方法和属性的表格,包括它们的名称、类型和description:
|
||||
|
||||
| 名称 | 类型 | 描述 |
|
||||
|-----------|---------------------|----------------------|
|
||||
|
|
@ -527,7 +534,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
`Keypoints` 对象可以用于索引、操作和规范化坐标。
|
||||
|
||||
!!! 示例 "关键点"
|
||||
!!! Example "关键点"
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -543,7 +550,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
print(r.keypoints) # 打印包含检测到的关键点的Keypoints对象
|
||||
```
|
||||
|
||||
以下是`Keypoints`类方法和属性的表格,包括它们的名称、类型和描述:
|
||||
以下是`Keypoints`类方法和属性的表格,包括它们的名称、类型和description:
|
||||
|
||||
| 名称 | 类型 | 描述 |
|
||||
|-----------|--------------------|---------------------------|
|
||||
|
|
@ -561,7 +568,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
`Probs` 对象可以用于索引,获取分类的 `top1` 和 `top5` 索引和分数。
|
||||
|
||||
!!! 示例 "概率"
|
||||
!!! Example "概率"
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -596,7 +603,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
您可以使用`Result`对象的`plot()`方法来可视化预测结果。它会将`Results`对象中包含的所有预测类型(框、掩码、关键点、概率等)绘制到一个numpy数组上,然后可以显示或保存。
|
||||
|
||||
!!! 示例 "绘制"
|
||||
!!! Example "绘制"
|
||||
|
||||
```python
|
||||
from PIL import Image
|
||||
|
|
@ -640,7 +647,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
在多线程应用中使用YOLO模型时,重要的是为每个线程实例化单独的模型对象,或使用线程本地存储来防止冲突:
|
||||
|
||||
!!! 示例 "线程安全推理"
|
||||
!!! Example "线程安全推理"
|
||||
|
||||
在每个线程内实例化单个模型以实现线程安全的推理:
|
||||
```python
|
||||
|
|
@ -664,7 +671,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
以下是使用OpenCV(`cv2`)和YOLOv8在视频帧上运行推理的Python脚本。此脚本假设您已经安装了必要的包(`opencv-python`和`ultralytics`)。
|
||||
|
||||
!!! 示例 "流媒体for循环"
|
||||
!!! Example "流媒体for循环"
|
||||
|
||||
```python
|
||||
import cv2
|
||||
|
|
|
|||
|
|
@ -58,7 +58,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置
|
|||
|
||||
要在视频流中运行追踪器,请使用已训练的检测、分割或姿态模型,例如YOLOv8n、YOLOv8n-seg和YOLOv8n-pose。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -97,7 +97,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置
|
|||
|
||||
追踪配置与预测模式共享一些属性,如`conf`、`iou`和`show`。有关进一步配置,请参见[预测](https://docs.ultralytics.com/modes/predict/)模型页面。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -120,7 +120,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置
|
|||
|
||||
Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操作,只需从[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)中复制一个追踪器配置文件(例如,`custom_tracker.yaml`)并根据您的需求修改任何配置(除了`tracker_type`)。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -147,7 +147,7 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操
|
|||
|
||||
这是一个使用OpenCV(`cv2`)和YOLOv8在视频帧上运行物体追踪的Python脚本。此脚本假设您已经安装了必要的包(`opencv-python`和`ultralytics`)。参数`persist=True`告诉追踪器当前的图像或帧是序列中的下一个,并且期望在当前图像中从上一个图像中获得追踪路径。
|
||||
|
||||
!!! 示例 "带追踪功能的流循环"
|
||||
!!! Example "带追踪功能的流循环"
|
||||
|
||||
```python
|
||||
import cv2
|
||||
|
|
@ -195,7 +195,7 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操
|
|||
|
||||
在以下示例中,我们演示了如何利用YOLOv8的追踪功能在多个视频帧上绘制检测物体的移动。这个脚本涉及打开视频文件、逐帧读取,并使用YOLO模型识别并追踪各种物体。通过保留检测到的边界框的中心点并连接它们,我们可以绘制表示跟踪物体路径的线条。
|
||||
|
||||
!!! 示例 "在多个视频帧上绘制追踪路径"
|
||||
!!! Example "在多个视频帧上绘制追踪路径"
|
||||
|
||||
```python
|
||||
from collections import defaultdict
|
||||
|
|
@ -271,7 +271,3 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操
|
|||
在`threading.Thread`中参数`daemon=True`表示,这些线程会在主程序结束时关闭。然后我们用`start()`来开始线程,并使用`join()`来使主线程等待,直到两个追踪线程都结束。
|
||||
|
||||
最后,在所有线程完成任务后,使用`cv2.destroyAllWindows()`关闭显示结果的窗口。
|
||||
|
||||
!!! 示例 "带追踪功能的流循环"
|
||||
|
||||
```pyth
|
||||
|
|
|
|||
|
|
@ -49,7 +49,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
|
|||
|
||||
在COCO128数据集上训练YOLOv8n模型100个时期,图像大小为640。可以使用`device`参数指定训练设备。如果没有传递参数,并且有可用的GPU,则将使用GPU `device=0`,否则将使用`device=cpu`。有关完整列表的训练参数,请参见下面的参数部分。
|
||||
|
||||
!!! 示例 "单GPU和CPU训练示例"
|
||||
!!! Example "单GPU和CPU训练示例"
|
||||
|
||||
设备将自动确定。如果有可用的GPU,那么将使用它,否则将在CPU上开始训练。
|
||||
|
||||
|
|
@ -84,7 +84,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
|
|||
|
||||
多GPU训练通过在多个GPU上分布训练负载,实现对可用硬件资源的更有效利用。无论是通过Python API还是命令行界面,都可以使用此功能。 若要启用多GPU训练,请指定您希望使用的GPU设备ID。
|
||||
|
||||
!!! 示例 "多GPU训练示例"
|
||||
!!! Example "多GPU训练示例"
|
||||
|
||||
要使用2个GPU进行训练,请使用CUDA设备0和1,使用以下命令。根据需要扩展到更多GPU。
|
||||
|
||||
|
|
@ -113,7 +113,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
|
|||
|
||||
要在Apple M1和M2芯片上启用训练,您应该在启动训练过程时将设备指定为'mps'。以下是Python和命令行中如何做到这点的示例:
|
||||
|
||||
!!! 示例 "MPS训练示例"
|
||||
!!! Example "MPS训练示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -146,7 +146,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
|
|||
|
||||
下面是使用Python和命令行恢复中断训练的示例:
|
||||
|
||||
!!! 示例 "恢复训练示例"
|
||||
!!! Example "恢复训练示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -236,7 +236,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
|
|||
|
||||
使用Comet:
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -254,7 +254,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
|
|||
|
||||
使用ClearML:
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -272,7 +272,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
|
|||
|
||||
在[Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb)中使用TensorBoard:
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
@ -282,7 +282,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
|
|||
|
||||
在本地使用TensorBoard,运行下面的命令并在 http://localhost:6006/ 查看结果。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
|
|||
|
|
@ -30,7 +30,7 @@ keywords: Ultralytics, YOLO 文档, YOLOv8, 验证, 模型评估, 超参数, 准
|
|||
- **CLI 和 Python API:** 根据您的验证偏好选择命令行界面或 Python API。
|
||||
- **数据兼容性:** 与训练阶段使用的数据集以及自定义数据集无缝协作。
|
||||
|
||||
!!! tip "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
* YOLOv8 模型会自动记住其训练设置,因此您可以很容易地仅使用 `yolo val model=yolov8n.pt` 或 `model('yolov8n.pt').val()` 在原始数据集上并以相同图像大小验证模型。
|
||||
|
||||
|
|
@ -38,7 +38,7 @@ keywords: Ultralytics, YOLO 文档, YOLOv8, 验证, 模型评估, 超参数, 准
|
|||
|
||||
在 COCO128 数据集上验证训练过的 YOLOv8n 模型的准确性。由于 `model` 保留了其训练的 `data` 和参数作为模型属性,因此无需传递任何参数。有关完整的导出参数列表,请参阅下面的参数部分。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -8,7 +8,7 @@ keywords: Ultralytics安装,pip安装Ultralytics,Docker安装Ultralytics,U
|
|||
|
||||
Ultralytics提供了多种安装方法,包括pip、conda和Docker。通过`ultralytics`pip包安装最新稳定版的YOLOv8,或者克隆[Ultralytics GitHub仓库](https://github.com/ultralytics/ultralytics)以获取最新版本。Docker可用于在隔离容器中执行包,避免本地安装。
|
||||
|
||||
!!! 示例 "安装"
|
||||
!!! Example "安装"
|
||||
|
||||
=== "Pip安装(推荐)"
|
||||
使用pip安装`ultralytics`包,或通过运行`pip install -U ultralytics`更新现有安装。访问Python包索引(PyPI)了解更多关于`ultralytics`包的详细信息:[https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/)。
|
||||
|
|
@ -129,7 +129,7 @@ Ultralytics提供了多种安装方法,包括pip、conda和Docker。通过`ult
|
|||
<strong>Watch:</strong> Ultralytics YOLO Quick Start Guide
|
||||
</p>
|
||||
|
||||
!!! 提示 "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
PyTorch的要求因操作系统和CUDA需要而异,因此建议首先根据[https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)上的指南安装PyTorch。
|
||||
|
||||
|
|
@ -141,7 +141,7 @@ Ultralytics提供了多种安装方法,包括pip、conda和Docker。通过`ult
|
|||
|
||||
Ultralytics命令行界面(CLI)允许您通过简单的单行命令使用,无需Python环境。CLI不需要自定义或Python代码。您可以直接从终端使用`yolo`命令运行所有任务。查看[CLI指南](/../usage/cli.md),了解更多关于从命令行使用YOLOv8的信息。
|
||||
|
||||
!!! 示例
|
||||
!!! Example
|
||||
|
||||
=== "语法"
|
||||
|
||||
|
|
@ -195,7 +195,7 @@ Ultralytics命令行界面(CLI)允许您通过简单的单行命令使用,
|
|||
yolo cfg
|
||||
```
|
||||
|
||||
!!! 警告 "警告"
|
||||
!!! Warning "警告"
|
||||
|
||||
参数必须以`arg=val`对的形式传递,用等号`=`分隔,并用空格` `分隔对。不要使用`--`参数前缀或逗号`,`分隔参数。
|
||||
|
||||
|
|
@ -211,7 +211,7 @@ YOLOv8的Python接口允许无缝集成进您的Python项目,轻松加载、
|
|||
|
||||
例如,用户可以加载一个模型,训练它,在验证集上评估性能,甚至只需几行代码就可以将其导出到ONNX格式。查看[Python指南](/../usage/python.md),了解更多关于在Python项目中使用YOLOv8的信息。
|
||||
|
||||
!!! 示例
|
||||
!!! Example
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -245,7 +245,7 @@ Ultralytics库提供了一个强大的设置管理系统,允许您精细控制
|
|||
|
||||
若要了解当前设置的配置情况,您可以直接查看:
|
||||
|
||||
!!! 示例 "查看设置"
|
||||
!!! Example "查看设置"
|
||||
|
||||
=== "Python"
|
||||
您可以使用Python查看设置。首先从`ultralytics`模块导入`settings`对象。使用以下命令打印和返回设置:
|
||||
|
|
@ -269,7 +269,7 @@ Ultralytics库提供了一个强大的设置管理系统,允许您精细控制
|
|||
|
||||
Ultralytics允许用户轻松修改他们的设置。更改可以通过以下方式执行:
|
||||
|
||||
!!! 示例 "更新设置"
|
||||
!!! Example "更新设置"
|
||||
|
||||
=== "Python"
|
||||
在Python环境中,调用`settings`对象上的`update`方法来更改您的设置:
|
||||
|
|
|
|||
|
|
@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, 图像分类, 预训练模型, YOLOv8n-cls, 训
|
|||
|
||||
图像分类器的输出是单个类别标签和一个置信度分数。当您只需要知道一幅图像属于哪个类别、而不需要知道该类别对象的位置或它们的确切形状时,图像分类非常有用。
|
||||
|
||||
!!! tip "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
YOLOv8分类模型使用`-cls`后缀,即`yolov8n-cls.pt`,并预先训练在[ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)上。
|
||||
|
||||
|
|
@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, 图像分类, 预训练模型, YOLOv8n-cls, 训
|
|||
|
||||
在MNIST160数据集上训练YOLOv8n-cls模型100个时期,图像尺寸为64。有关可用参数的完整列表,请参见[配置](/../usage/cfg.md)页面。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -76,7 +76,7 @@ YOLO分类数据集的格式详情请参见[数据集指南](/../datasets/classi
|
|||
|
||||
在MNIST160数据集上验证训练好的YOLOv8n-cls模型准确性。不需要传递任何参数,因为`model`保留了它的训练`data`和参数作为模型属性。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -103,7 +103,7 @@ YOLO分类数据集的格式详情请参见[数据集指南](/../datasets/classi
|
|||
|
||||
使用训练过的YOLOv8n-cls模型对图像进行预测。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -130,7 +130,7 @@ YOLO分类数据集的格式详情请参见[数据集指南](/../datasets/classi
|
|||
|
||||
将YOLOv8n-cls模型导出为其他格式,如ONNX、CoreML等。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, 目标检测, 预训练模型, 训练, 验证,
|
|||
<strong>观看:</strong>使用预训练的Ultralytics YOLOv8模型进行目标检测。
|
||||
</p>
|
||||
|
||||
!!! tip "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
YOLOv8 Detect 模型是默认的 YOLOv8 模型,即 `yolov8n.pt` ,并在 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 数据集上进行了预训练。
|
||||
|
||||
|
|
@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, 目标检测, 预训练模型, 训练, 验证,
|
|||
|
||||
在COCO128数据集上使用图像尺寸640将YOLOv8n训练100个epochs。要查看可用参数的完整列表,请参阅 [配置](/../usage/cfg.md) 页面。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -86,7 +86,7 @@ YOLO检测数据集格式可以在 [数据集指南](/../datasets/detect/index.m
|
|||
|
||||
在COCO128数据集上验证训练好的YOLOv8n模型准确性。无需传递参数,`model` 作为模型属性保留其训练的 `data` 和参数。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -115,7 +115,7 @@ YOLO检测数据集格式可以在 [数据集指南](/../datasets/detect/index.m
|
|||
|
||||
使用训练好的YOLOv8n模型在图像上进行预测。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -142,7 +142,7 @@ YOLO检测数据集格式可以在 [数据集指南](/../datasets/detect/index.m
|
|||
|
||||
将YOLOv8n模型导出为ONNX、CoreML等不同格式。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -1,7 +1,7 @@
|
|||
---
|
||||
评论:真
|
||||
描述:学习如何使用Ultralytics YOLOv8进行姿态估计任务。找到预训练模型,学习如何训练、验证、预测以及导出你自己的模型。
|
||||
关键词:Ultralytics, YOLO, YOLOv8, 姿态估计, 关键点检测, 物体检测, 预训练模型, 机器学习, 人工智能
|
||||
comments: true
|
||||
description: 学习如何使用Ultralytics YOLOv8进行姿态估计任务。找到预训练模型,学习如何训练、验证、预测以及导出你自己的模型。
|
||||
keywords: Ultralytics, YOLO, YOLOv8, 姿态估计, 关键点检测, 物体检测, 预训练模型, 机器学习, 人工智能
|
||||
---
|
||||
|
||||
# 姿态估计
|
||||
|
|
@ -23,7 +23,7 @@
|
|||
<strong>观看:</strong>使用Ultralytics YOLOv8进行姿态估计。
|
||||
</p>
|
||||
|
||||
!!! tip "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
YOLOv8 _姿态_ 模型使用 `-pose` 后缀,例如 `yolov8n-pose.pt`。这些模型在 [COCO关键点](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) 数据集上进行了训练,并且适用于各种姿态估计任务。
|
||||
|
||||
|
|
@ -51,7 +51,7 @@
|
|||
|
||||
在COCO128姿态数据集上训练一个YOLOv8姿态模型。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -87,7 +87,7 @@ YOLO姿态数据集格式可详细找到在[数据集指南](/../datasets/pose/i
|
|||
|
||||
在COCO128姿态数据集上验证训练好的YOLOv8n姿态模型的准确性。没有参数需要传递,因为`模型`保存了其训练`数据`和参数作为模型属性。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -116,7 +116,7 @@ YOLO姿态数据集格式可详细找到在[数据集指南](/../datasets/pose/i
|
|||
|
||||
使用训练好的YOLOv8n姿态模型在图片上运行预测。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -143,7 +143,7 @@ YOLO姿态数据集格式可详细找到在[数据集指南](/../datasets/pose/i
|
|||
|
||||
将YOLOv8n姿态模型导出为ONNX、CoreML等不同格式。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体
|
|||
<strong>观看:</strong> 在Python中使用预训练的Ultralytics YOLOv8模型运行分割。
|
||||
</p>
|
||||
|
||||
!!! tip "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
YOLOv8分割模型使用`-seg`后缀,即`yolov8n-seg.pt`,并在[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)上进行预训练。
|
||||
|
||||
|
|
@ -50,7 +50,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体
|
|||
|
||||
在COCO128-seg数据集上以640的图像尺寸训练YOLOv8n-seg模型共100个周期。想了解更多可用的参数,请查阅[配置](/../usage/cfg.md)页面。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -86,7 +86,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体
|
|||
|
||||
在COCO128-seg数据集上验证已训练的YOLOv8n-seg模型的准确性。不需要传递任何参数,因为`model`保留了其训练的`data`和作为模型属性的设置。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -119,7 +119,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体
|
|||
|
||||
使用已训练的YOLOv8n-seg模型在图像上进行预测。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -146,7 +146,7 @@ keywords: yolov8, 实例分割, Ultralytics, COCO数据集, 图像分割, 物体
|
|||
|
||||
将YOLOv8n-seg模型导出为ONNX、CoreML等不同格式。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue