Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)
Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
parent
b6baae584c
commit
02bf8003a8
337 changed files with 6584 additions and 777 deletions
|
|
@ -32,7 +32,7 @@ Una vez que su modelo está entrenado y validado, el siguiente paso lógico es e
|
|||
- **OpenVINO:** Para la optimización en hardware de Intel
|
||||
- **CoreML, TensorFlow SavedModel y Más:** Para necesidades de despliegue diversas.
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
* Exporte a ONNX o OpenVINO para acelerar la velocidad de CPU hasta 3 veces.
|
||||
* Exporte a TensorRT para acelerar la velocidad de GPU hasta 5 veces.
|
||||
|
|
@ -41,7 +41,7 @@ Una vez que su modelo está entrenado y validado, el siguiente paso lógico es e
|
|||
|
||||
Ejecute benchmarks de YOLOv8n en todos los formatos de exportación soportados incluyendo ONNX, TensorRT, etc. Vea la sección de Argumentos a continuación para una lista completa de argumentos de exportación.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -39,7 +39,7 @@ Aquí tienes algunas de las funcionalidades destacadas:
|
|||
- **Inferencia Optimizada:** Los modelos exportados están optimizados para tiempos de inferencia más rápidos.
|
||||
- **Vídeos Tutoriales:** Guías y tutoriales en profundidad para una experiencia de exportación fluida.
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
* Exporta a ONNX u OpenVINO para acelerar la CPU hasta 3 veces.
|
||||
* Exporta a TensorRT para acelerar la GPU hasta 5 veces.
|
||||
|
|
@ -48,7 +48,7 @@ Aquí tienes algunas de las funcionalidades destacadas:
|
|||
|
||||
Exporta un modelo YOLOv8n a un formato diferente como ONNX o TensorRT. Consulta la sección Argumentos más abajo para una lista completa de argumentos de exportación.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -50,7 +50,7 @@ El modo predictivo de YOLOv8 está diseñado para ser robusto y versátil, y cue
|
|||
|
||||
Los modelos YOLO de Ultralytics devuelven ya sea una lista de objetos `Results` de Python, o un generador de objetos `Results` de Python eficiente en memoria cuando se pasa `stream=True` al modelo durante la inferencia:
|
||||
|
||||
!!! ejemplo "Predict"
|
||||
!!! Example "Predict"
|
||||
|
||||
=== "Devolver una lista con `stream=False`"
|
||||
```python
|
||||
|
|
@ -92,7 +92,7 @@ Los modelos YOLO de Ultralytics devuelven ya sea una lista de objetos `Results`
|
|||
|
||||
YOLOv8 puede procesar diferentes tipos de fuentes de entrada para la inferencia, como se muestra en la tabla a continuación. Las fuentes incluyen imágenes estáticas, transmisiones de video y varios formatos de datos. La tabla también indica si cada fuente se puede utilizar en modo de transmisión con el argumento `stream=True` ✅. El modo de transmisión es beneficioso para procesar videos o transmisiones en vivo ya que crea un generador de resultados en lugar de cargar todos los fotogramas en la memoria.
|
||||
|
||||
!!! consejo "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
Utilice `stream=True` para procesar videos largos o conjuntos de datos grandes para gestionar eficientemente la memoria. Cuando `stream=False`, los resultados de todos los fotogramas o puntos de datos se almacenan en la memoria, lo que puede aumentar rápidamente y causar errores de memoria insuficiente para entradas grandes. En contraste, `stream=True` utiliza un generador, que solo mantiene los resultados del fotograma o punto de datos actual en la memoria, reduciendo significativamente el consumo de memoria y previniendo problemas de falta de memoria.
|
||||
|
||||
|
|
@ -115,7 +115,7 @@ YOLOv8 puede procesar diferentes tipos de fuentes de entrada para la inferencia,
|
|||
|
||||
A continuación se muestran ejemplos de código para usar cada tipo de fuente:
|
||||
|
||||
!!! ejemplo "Fuentes de predicción"
|
||||
!!! Example "Fuentes de predicción"
|
||||
|
||||
=== "imagen"
|
||||
Ejecute inferencia en un archivo de imagen.
|
||||
|
|
|
|||
|
|
@ -58,7 +58,7 @@ El rastreador predeterminado es BoT-SORT.
|
|||
|
||||
Para ejecutar el rastreador en flujos de video, usa un modelo Detect, Segment o Pose entrenado tales como YOLOv8n, YOLOv8n-seg y YOLOv8n-pose.
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -97,7 +97,7 @@ Como se puede ver en el uso anterior, el seguimiento está disponible para todos
|
|||
|
||||
La configuración de seguimiento comparte propiedades con el modo Predict, como `conf`, `iou` y `show`. Para configuraciones adicionales, consulta la página del modelo [Predict](https://docs.ultralytics.com/modes/predict/).
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -120,7 +120,7 @@ La configuración de seguimiento comparte propiedades con el modo Predict, como
|
|||
|
||||
Ultralytics también te permite usar un archivo de configuración de rastreador modificado. Para hacerlo, simplemente haz una copia de un archivo de configuración de rastreador (por ejemplo, `custom_tracker.yaml`) de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) y modifica cualquier configuración (excepto el `tracker_type`) según tus necesidades.
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -147,7 +147,7 @@ Para obtener una lista completa de los argumentos de seguimiento, consulta la p
|
|||
|
||||
Aquí hay un script en Python que utiliza OpenCV (`cv2`) y YOLOv8 para ejecutar el seguimiento de objetos en fotogramas de video. Este script aún asume que ya has instalado los paquetes necesarios (`opencv-python` y `ultralytics`). El argumento `persist=True` le indica al rastreador que la imagen o fotograma actual es el siguiente en una secuencia y que espera rastros de la imagen anterior en la imagen actual.
|
||||
|
||||
!!! ejemplo "Bucle de transmisión en vivo con seguimiento"
|
||||
!!! Example "Bucle de transmisión en vivo con seguimiento"
|
||||
|
||||
```python
|
||||
import cv2
|
||||
|
|
|
|||
|
|
@ -41,7 +41,7 @@ Las siguientes son algunas características notables del modo Entrenamiento de Y
|
|||
- **Configuración de Hiperparámetros:** La opción de modificar hiperparámetros a través de archivos de configuración YAML o argumentos CLI.
|
||||
- **Visualización y Monitoreo:** Seguimiento en tiempo real de métricas de entrenamiento y visualización del proceso de aprendizaje para una mejor comprensión.
|
||||
|
||||
!!! consejo "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
* Los conjuntos de datos de YOLOv8 como COCO, VOC, ImageNet y muchos otros se descargan automáticamente en el primer uso, es decir, `yolo train data=coco.yaml`
|
||||
|
||||
|
|
@ -49,7 +49,7 @@ Las siguientes son algunas características notables del modo Entrenamiento de Y
|
|||
|
||||
Entrena YOLOv8n en el conjunto de datos COCO128 durante 100 épocas con un tamaño de imagen de 640. El dispositivo de entrenamiento se puede especificar usando el argumento `device`. Si no se pasa ningún argumento, se usará la GPU `device=0` si está disponible; de lo contrario, se usará `device=cpu`. Consulta la sección de Argumentos a continuación para una lista completa de argumentos de entrenamiento.
|
||||
|
||||
!!! ejemplo "Ejemplo de Entrenamiento con una sola GPU y CPU"
|
||||
!!! Example "Ejemplo de Entrenamiento con una sola GPU y CPU"
|
||||
|
||||
El dispositivo se determina automáticamente. Si hay una GPU disponible, se usará; de lo contrario, el entrenamiento comenzará en la CPU.
|
||||
|
||||
|
|
@ -84,7 +84,7 @@ Entrena YOLOv8n en el conjunto de datos COCO128 durante 100 épocas con un tama
|
|||
|
||||
El entrenamiento Multi-GPU permite una utilización más eficiente de los recursos de hardware disponibles, distribuyendo la carga de entrenamiento en varias GPUs. Esta característica está disponible tanto a través de la API de Python como de la interfaz de línea de comandos. Para habilitar el entrenamiento Multi-GPU, especifica los IDs de los dispositivos GPU que deseas usar.
|
||||
|
||||
!!! ejemplo "Ejemplo de Entrenamiento Multi-GPU"
|
||||
!!! Example "Ejemplo de Entrenamiento Multi-GPU"
|
||||
|
||||
Para entrenar con 2 GPUs, dispositivos CUDA 0 y 1, usa los siguientes comandos. Amplía a GPUs adicionales según sea necesario.
|
||||
|
||||
|
|
@ -113,7 +113,7 @@ Con el soporte para los chips Apple M1 y M2 integrados en los modelos Ultralytic
|
|||
|
||||
Para habilitar el entrenamiento en chips Apple M1 y M2, debes especificar 'mps' como tu dispositivo al iniciar el proceso de entrenamiento. A continuación se muestra un ejemplo de cómo podrías hacer esto en Python y a través de la línea de comandos:
|
||||
|
||||
!!! ejemplo "Ejemplo de Entrenamiento MPS"
|
||||
!!! Example "Ejemplo de Entrenamiento MPS"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -148,7 +148,7 @@ Para usar un registrador, selecciónalo en el menú desplegable en el fragmento
|
|||
|
||||
Para usar Comet:
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -166,7 +166,7 @@ Recuerda iniciar sesión en tu cuenta de Comet en su sitio web y obtener tu clav
|
|||
|
||||
Para usar ClearML:
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -184,7 +184,7 @@ Después de ejecutar este script, necesitarás iniciar sesión en tu cuenta de C
|
|||
|
||||
Para usar TensorBoard en [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb):
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
@ -194,7 +194,7 @@ Para usar TensorBoard en [Google Colab](https://colab.research.google.com/github
|
|||
|
||||
Para usar TensorBoard localmente, ejecuta el siguiente comando y visualiza los resultados en http://localhost:6006/.
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
|
|||
|
|
@ -30,7 +30,7 @@ Estas son las funcionalidades notables ofrecidas por el modo Val de YOLOv8:
|
|||
- **CLI y API de Python:** Elija entre la interfaz de línea de comandos o API de Python basada en su preferencia para validación.
|
||||
- **Compatibilidad de Datos:** Funciona sin problemas con conjuntos de datos utilizados durante la fase de entrenamiento así como con conjuntos de datos personalizados.
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
* Los modelos YOLOv8 recuerdan automáticamente sus ajustes de entrenamiento, así que puede validar un modelo en el mismo tamaño de imagen y en el conjunto de datos original fácilmente con solo `yolo val model=yolov8n.pt` o `model('yolov8n.pt').val()`
|
||||
|
||||
|
|
@ -38,7 +38,7 @@ Estas son las funcionalidades notables ofrecidas por el modo Val de YOLOv8:
|
|||
|
||||
Valide la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO128. No es necesario pasar ningún argumento ya que el `modelo` retiene sus `datos` de entrenamiento y argumentos como atributos del modelo. Vea la sección de Argumentos a continuación para una lista completa de argumentos de exportación.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue