Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)
Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
parent
b6baae584c
commit
02bf8003a8
337 changed files with 6584 additions and 777 deletions
|
|
@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, 基准测试, 速度分析, 准确性分析, mAP5
|
|||
|
||||
在所有支持的导出格式上运行YOLOv8n基准测试,包括ONNX、TensorRT等。更多导出参数的完整列表请见下方的参数部分。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 模型导出, ONNX, TensorRT, CoreML, Tenso
|
|||
- **优化推理:** 导出的模型针对更快的推理时间进行优化。
|
||||
- **教学视频:** 提供深入指导和教学,确保流畅的导出体验。
|
||||
|
||||
!!! 提示 "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
* 导出到 ONNX 或 OpenVINO,以实现高达 3 倍的 CPU 加速。
|
||||
* 导出到 TensorRT,以实现高达 5 倍的 GPU 加速。
|
||||
|
|
@ -48,7 +48,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 模型导出, ONNX, TensorRT, CoreML, Tenso
|
|||
|
||||
将 YOLOv8n 模型导出为 ONNX 或 TensorRT 等不同格式。查看下面的参数部分,了解完整的导出参数列表。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -50,7 +50,7 @@ YOLOv8 的预测模式被设计为强大且多功能,包括以下特性:
|
|||
|
||||
Ultralytics YOLO 模型在进行推理时返回一个 Python `Results` 对象列表,或者当传入 `stream=True` 时,返回一个内存高效的 Python `Results` 对象生成器:
|
||||
|
||||
!!! 示例 "预测"
|
||||
!!! Example "预测"
|
||||
|
||||
=== "使用 `stream=False` 返回列表"
|
||||
```python
|
||||
|
|
@ -92,7 +92,7 @@ Ultralytics YOLO 模型在进行推理时返回一个 Python `Results` 对象列
|
|||
|
||||
YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括静态图像、视频流和各种数据格式。表格还表示了每种来源是否可以在流式模式下使用,使用参数 `stream=True` ✅。流式模式对于处理视频或实时流非常有利,因为它创建了结果的生成器,而不是将所有帧加载到内存。
|
||||
|
||||
!!! 提示 "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
使用 `stream=True` 处理长视频或大型数据集来高效地管理内存。当 `stream=False` 时,所有帧或数据点的结果都将存储在内存中,这可能很快导致内存不足错误。相对地,`stream=True` 使用生成器,只保留当前帧或数据点的结果在内存中,显著减少了内存消耗,防止内存不足问题。
|
||||
|
||||
|
|
@ -115,7 +115,7 @@ YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括
|
|||
|
||||
下面为每种来源类型使用代码的示例:
|
||||
|
||||
!!! 示例 "预测来源"
|
||||
!!! Example "预测来源"
|
||||
|
||||
=== "图像"
|
||||
对图像文件进行推理。
|
||||
|
|
@ -327,7 +327,7 @@ YOLOv8 可以处理推理输入的不同类型,如下表所示。来源包括
|
|||
|
||||
`model.predict()` 在推理时接受多个参数,可以用来覆盖默认值:
|
||||
|
||||
!!! 示例
|
||||
!!! Example
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -373,11 +373,20 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
### 图像
|
||||
|
||||
以下表格包含有效的Ultralytics图像格式。
|
||||
下表包含了Ultralytics支持的有效图像格式。
|
||||
|
||||
| 图像后缀名 | 示例预测命令 | 参考链接 | |
|
||||
|
||||
----------------|-----------------------------------------|-------------------------------------------------------------------------------| | .bmp | `yolo predict source=image.bmp` | [Microsoft BMP文件格式](https://en.wikipedia.org/wiki/BMP_file_format) | | .dng | `yolo predict source=image.dng` | [Adobe DNG](https://www.adobe.com/products/photoshop/extend.displayTab2.html) | | .jpeg | `yolo predict source=image.jpeg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | | .jpg | `yolo predict source=image.jpg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) | | .mpo | `yolo predict source=image.mpo` | [多图像对象](https://fileinfo.com/extension/mpo) | | .png | `yolo predict source=image.png` | [便携式网络图形](https://en.wikipedia.org/wiki/PNG) | | .tif | `yolo predict source=image.tif` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | | .tiff | `yolo predict source=image.tiff` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) | | .webp | `yolo predict source=image.webp` | [WebP](https://en.wikipedia.org/wiki/WebP) | | .pfm | `yolo predict source=image.pfm` | [便携式浮点图](https://en.wikipedia.org/wiki/Netpbm#File_formats) |
|
||||
| 图像后缀 | 示例预测命令 | 参考链接 |
|
||||
|-------|----------------------------------|-------------------------------------------------------------------------------|
|
||||
| .bmp | `yolo predict source=image.bmp` | [Microsoft BMP文件格式](https://en.wikipedia.org/wiki/BMP_file_format) |
|
||||
| .dng | `yolo predict source=image.dng` | [Adobe DNG](https://www.adobe.com/products/photoshop/extend.displayTab2.html) |
|
||||
| .jpeg | `yolo predict source=image.jpeg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) |
|
||||
| .jpg | `yolo predict source=image.jpg` | [JPEG](https://en.wikipedia.org/wiki/JPEG) |
|
||||
| .mpo | `yolo predict source=image.mpo` | [多图像对象](https://fileinfo.com/extension/mpo) |
|
||||
| .png | `yolo predict source=image.png` | [便携式网络图形](https://en.wikipedia.org/wiki/PNG) |
|
||||
| .tif | `yolo predict source=image.tif` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) |
|
||||
| .tiff | `yolo predict source=image.tiff` | [标签图像文件格式](https://en.wikipedia.org/wiki/TIFF) |
|
||||
| .webp | `yolo predict source=image.webp` | [WebP](https://en.wikipedia.org/wiki/WebP) |
|
||||
| .pfm | `yolo predict source=image.pfm` | [便携式浮点映射](https://en.wikipedia.org/wiki/Netpbm#File_formats) |
|
||||
|
||||
### 视频
|
||||
|
||||
|
|
@ -402,7 +411,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
所有Ultralytics的`predict()`调用都将返回一个`Results`对象列表:
|
||||
|
||||
!!! 示例 "结果"
|
||||
!!! Example "结果"
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -454,7 +463,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
`Boxes`对象可用于索引、操作和转换边界框到不同格式。
|
||||
|
||||
!!! 示例 "边界框(Boxes)"
|
||||
!!! Example "边界框(Boxes)"
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -465,14 +474,12 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
# 在图片上运行推理
|
||||
results = model('bus.jpg')
|
||||
|
||||
# results列表
|
||||
|
||||
# 查看结果
|
||||
for r in results:
|
||||
print(r.boxes) # 打印包含检测边界框的Boxes对象
|
||||
```
|
||||
|
||||
以下是`Boxes`类方法和属性的表格,包括它们的名称、类型和描述:
|
||||
以下是`Boxes`类方法和属性的表格,包括它们的名称、类型和description:
|
||||
|
||||
| 名称 | 类型 | 描述 |
|
||||
|-----------|---------------------|-------------------------|
|
||||
|
|
@ -494,7 +501,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
`Masks`对象可用于索引、操作和将掩码转换为分段。
|
||||
|
||||
!!! 示例 "掩码(Masks)"
|
||||
!!! Example "掩码(Masks)"
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -510,7 +517,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
print(r.masks) # 打印包含检测到的实例掩码的Masks对象
|
||||
```
|
||||
|
||||
以下是`Masks`类方法和属性的表格,包括它们的名称、类型和描述:
|
||||
以下是`Masks`类方法和属性的表格,包括它们的名称、类型和description:
|
||||
|
||||
| 名称 | 类型 | 描述 |
|
||||
|-----------|---------------------|----------------------|
|
||||
|
|
@ -527,7 +534,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
`Keypoints` 对象可以用于索引、操作和规范化坐标。
|
||||
|
||||
!!! 示例 "关键点"
|
||||
!!! Example "关键点"
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -543,7 +550,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
print(r.keypoints) # 打印包含检测到的关键点的Keypoints对象
|
||||
```
|
||||
|
||||
以下是`Keypoints`类方法和属性的表格,包括它们的名称、类型和描述:
|
||||
以下是`Keypoints`类方法和属性的表格,包括它们的名称、类型和description:
|
||||
|
||||
| 名称 | 类型 | 描述 |
|
||||
|-----------|--------------------|---------------------------|
|
||||
|
|
@ -561,7 +568,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
`Probs` 对象可以用于索引,获取分类的 `top1` 和 `top5` 索引和分数。
|
||||
|
||||
!!! 示例 "概率"
|
||||
!!! Example "概率"
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
@ -596,7 +603,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
您可以使用`Result`对象的`plot()`方法来可视化预测结果。它会将`Results`对象中包含的所有预测类型(框、掩码、关键点、概率等)绘制到一个numpy数组上,然后可以显示或保存。
|
||||
|
||||
!!! 示例 "绘制"
|
||||
!!! Example "绘制"
|
||||
|
||||
```python
|
||||
from PIL import Image
|
||||
|
|
@ -640,7 +647,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
在多线程应用中使用YOLO模型时,重要的是为每个线程实例化单独的模型对象,或使用线程本地存储来防止冲突:
|
||||
|
||||
!!! 示例 "线程安全推理"
|
||||
!!! Example "线程安全推理"
|
||||
|
||||
在每个线程内实例化单个模型以实现线程安全的推理:
|
||||
```python
|
||||
|
|
@ -664,7 +671,7 @@ YOLOv8支持多种图像和视频格式,如[data/utils.py](https://github.com/
|
|||
|
||||
以下是使用OpenCV(`cv2`)和YOLOv8在视频帧上运行推理的Python脚本。此脚本假设您已经安装了必要的包(`opencv-python`和`ultralytics`)。
|
||||
|
||||
!!! 示例 "流媒体for循环"
|
||||
!!! Example "流媒体for循环"
|
||||
|
||||
```python
|
||||
import cv2
|
||||
|
|
|
|||
|
|
@ -58,7 +58,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置
|
|||
|
||||
要在视频流中运行追踪器,请使用已训练的检测、分割或姿态模型,例如YOLOv8n、YOLOv8n-seg和YOLOv8n-pose。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -97,7 +97,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置
|
|||
|
||||
追踪配置与预测模式共享一些属性,如`conf`、`iou`和`show`。有关进一步配置,请参见[预测](https://docs.ultralytics.com/modes/predict/)模型页面。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -120,7 +120,7 @@ Ultralytics YOLO支持以下追踪算法。可以通过传递相关的YAML配置
|
|||
|
||||
Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操作,只需从[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)中复制一个追踪器配置文件(例如,`custom_tracker.yaml`)并根据您的需求修改任何配置(除了`tracker_type`)。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -147,7 +147,7 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操
|
|||
|
||||
这是一个使用OpenCV(`cv2`)和YOLOv8在视频帧上运行物体追踪的Python脚本。此脚本假设您已经安装了必要的包(`opencv-python`和`ultralytics`)。参数`persist=True`告诉追踪器当前的图像或帧是序列中的下一个,并且期望在当前图像中从上一个图像中获得追踪路径。
|
||||
|
||||
!!! 示例 "带追踪功能的流循环"
|
||||
!!! Example "带追踪功能的流循环"
|
||||
|
||||
```python
|
||||
import cv2
|
||||
|
|
@ -195,7 +195,7 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操
|
|||
|
||||
在以下示例中,我们演示了如何利用YOLOv8的追踪功能在多个视频帧上绘制检测物体的移动。这个脚本涉及打开视频文件、逐帧读取,并使用YOLO模型识别并追踪各种物体。通过保留检测到的边界框的中心点并连接它们,我们可以绘制表示跟踪物体路径的线条。
|
||||
|
||||
!!! 示例 "在多个视频帧上绘制追踪路径"
|
||||
!!! Example "在多个视频帧上绘制追踪路径"
|
||||
|
||||
```python
|
||||
from collections import defaultdict
|
||||
|
|
@ -271,7 +271,3 @@ Ultralytics还允许您使用修改后的追踪器配置文件。要执行此操
|
|||
在`threading.Thread`中参数`daemon=True`表示,这些线程会在主程序结束时关闭。然后我们用`start()`来开始线程,并使用`join()`来使主线程等待,直到两个追踪线程都结束。
|
||||
|
||||
最后,在所有线程完成任务后,使用`cv2.destroyAllWindows()`关闭显示结果的窗口。
|
||||
|
||||
!!! 示例 "带追踪功能的流循环"
|
||||
|
||||
```pyth
|
||||
|
|
|
|||
|
|
@ -49,7 +49,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
|
|||
|
||||
在COCO128数据集上训练YOLOv8n模型100个时期,图像大小为640。可以使用`device`参数指定训练设备。如果没有传递参数,并且有可用的GPU,则将使用GPU `device=0`,否则将使用`device=cpu`。有关完整列表的训练参数,请参见下面的参数部分。
|
||||
|
||||
!!! 示例 "单GPU和CPU训练示例"
|
||||
!!! Example "单GPU和CPU训练示例"
|
||||
|
||||
设备将自动确定。如果有可用的GPU,那么将使用它,否则将在CPU上开始训练。
|
||||
|
||||
|
|
@ -84,7 +84,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
|
|||
|
||||
多GPU训练通过在多个GPU上分布训练负载,实现对可用硬件资源的更有效利用。无论是通过Python API还是命令行界面,都可以使用此功能。 若要启用多GPU训练,请指定您希望使用的GPU设备ID。
|
||||
|
||||
!!! 示例 "多GPU训练示例"
|
||||
!!! Example "多GPU训练示例"
|
||||
|
||||
要使用2个GPU进行训练,请使用CUDA设备0和1,使用以下命令。根据需要扩展到更多GPU。
|
||||
|
||||
|
|
@ -113,7 +113,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
|
|||
|
||||
要在Apple M1和M2芯片上启用训练,您应该在启动训练过程时将设备指定为'mps'。以下是Python和命令行中如何做到这点的示例:
|
||||
|
||||
!!! 示例 "MPS训练示例"
|
||||
!!! Example "MPS训练示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -146,7 +146,7 @@ keywords: Ultralytics, YOLOv8, YOLO, 目标检测, 训练模式, 自定义数据
|
|||
|
||||
下面是使用Python和命令行恢复中断训练的示例:
|
||||
|
||||
!!! 示例 "恢复训练示例"
|
||||
!!! Example "恢复训练示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -236,7 +236,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
|
|||
|
||||
使用Comet:
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -254,7 +254,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
|
|||
|
||||
使用ClearML:
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -272,7 +272,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
|
|||
|
||||
在[Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb)中使用TensorBoard:
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
@ -282,7 +282,7 @@ YOLO模型的训练设置是指用于对数据集进行模型训练的各种超
|
|||
|
||||
在本地使用TensorBoard,运行下面的命令并在 http://localhost:6006/ 查看结果。
|
||||
|
||||
!!! 示例 ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
|
|||
|
|
@ -30,7 +30,7 @@ keywords: Ultralytics, YOLO 文档, YOLOv8, 验证, 模型评估, 超参数, 准
|
|||
- **CLI 和 Python API:** 根据您的验证偏好选择命令行界面或 Python API。
|
||||
- **数据兼容性:** 与训练阶段使用的数据集以及自定义数据集无缝协作。
|
||||
|
||||
!!! tip "提示"
|
||||
!!! Tip "提示"
|
||||
|
||||
* YOLOv8 模型会自动记住其训练设置,因此您可以很容易地仅使用 `yolo val model=yolov8n.pt` 或 `model('yolov8n.pt').val()` 在原始数据集上并以相同图像大小验证模型。
|
||||
|
||||
|
|
@ -38,7 +38,7 @@ keywords: Ultralytics, YOLO 文档, YOLOv8, 验证, 模型评估, 超参数, 准
|
|||
|
||||
在 COCO128 数据集上验证训练过的 YOLOv8n 模型的准确性。由于 `model` 保留了其训练的 `data` 和参数作为模型属性,因此无需传递任何参数。有关完整的导出参数列表,请参阅下面的参数部分。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "示例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue