Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)
Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
parent
b6baae584c
commit
02bf8003a8
337 changed files with 6584 additions and 777 deletions
|
|
@ -8,7 +8,7 @@ keywords: visión por computadora, conjuntos de datos, Ultralytics, YOLO, detecc
|
|||
|
||||
Ultralytics brinda soporte para varios conjuntos de datos para facilitar tareas de visión por computadora como detección, segmentación de instancias, estimación de poses, clasificación y seguimiento de múltiples objetos. A continuación se presenta una lista de los principales conjuntos de datos de Ultralytics, seguido por un resumen de cada tarea de visión por computadora y los respectivos conjuntos de datos.
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 Nuestra documentación multilingüe está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por su paciencia! 🙏
|
||||
|
||||
|
|
@ -104,7 +104,7 @@ Contribuir con un nuevo conjunto de datos implica varios pasos para garantizar q
|
|||
|
||||
### Código de Ejemplo para Optimizar y Comprimir un Conjunto de Datos
|
||||
|
||||
!!! example "Optimizar y Comprimir un Conjunto de Datos"
|
||||
!!! Example "Optimizar y Comprimir un Conjunto de Datos"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -38,7 +38,7 @@ Presentamos [Ultralytics](https://ultralytics.com) [YOLOv8](https://github.com/u
|
|||
|
||||
Explore los documentos de YOLOv8, un recurso integral diseñado para ayudarle a comprender y utilizar sus características y capacidades. Independientemente de que sea un practicante experimentado en aprendizaje automático o nuevo en el campo, este centro tiene como objetivo maximizar el potencial de YOLOv8 en sus proyectos.
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 Nuestra documentación en varios idiomas está actualmente en construcción y estamos trabajando duro para mejorarla. ¡Gracias por su paciencia! 🙏
|
||||
|
||||
|
|
|
|||
|
|
@ -8,7 +8,7 @@ keywords: Ultralytics, documentación, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS,
|
|||
|
||||
¡Bienvenido a la documentación de modelos de Ultralytics! Ofrecemos soporte para una amplia gama de modelos, cada uno adaptado a tareas específicas como [detección de objetos](../tasks/detect.md), [segmentación de instancias](../tasks/segment.md), [clasificación de imágenes](../tasks/classify.md), [estimación de postura](../tasks/pose.md) y [seguimiento de múltiples objetos](../modes/track.md). Si estás interesado en contribuir con tu arquitectura de modelo a Ultralytics, consulta nuestra [Guía de Contribución](../../help/contributing.md).
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 Nuestra documentación en varios idiomas está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por tu paciencia! 🙏
|
||||
|
||||
|
|
@ -41,7 +41,7 @@ Aquí tienes algunos de los modelos clave soportados:
|
|||
|
||||
## Comenzando: Ejemplos de Uso
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -32,7 +32,7 @@ Una vez que su modelo está entrenado y validado, el siguiente paso lógico es e
|
|||
- **OpenVINO:** Para la optimización en hardware de Intel
|
||||
- **CoreML, TensorFlow SavedModel y Más:** Para necesidades de despliegue diversas.
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
* Exporte a ONNX o OpenVINO para acelerar la velocidad de CPU hasta 3 veces.
|
||||
* Exporte a TensorRT para acelerar la velocidad de GPU hasta 5 veces.
|
||||
|
|
@ -41,7 +41,7 @@ Una vez que su modelo está entrenado y validado, el siguiente paso lógico es e
|
|||
|
||||
Ejecute benchmarks de YOLOv8n en todos los formatos de exportación soportados incluyendo ONNX, TensorRT, etc. Vea la sección de Argumentos a continuación para una lista completa de argumentos de exportación.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -39,7 +39,7 @@ Aquí tienes algunas de las funcionalidades destacadas:
|
|||
- **Inferencia Optimizada:** Los modelos exportados están optimizados para tiempos de inferencia más rápidos.
|
||||
- **Vídeos Tutoriales:** Guías y tutoriales en profundidad para una experiencia de exportación fluida.
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
* Exporta a ONNX u OpenVINO para acelerar la CPU hasta 3 veces.
|
||||
* Exporta a TensorRT para acelerar la GPU hasta 5 veces.
|
||||
|
|
@ -48,7 +48,7 @@ Aquí tienes algunas de las funcionalidades destacadas:
|
|||
|
||||
Exporta un modelo YOLOv8n a un formato diferente como ONNX o TensorRT. Consulta la sección Argumentos más abajo para una lista completa de argumentos de exportación.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -50,7 +50,7 @@ El modo predictivo de YOLOv8 está diseñado para ser robusto y versátil, y cue
|
|||
|
||||
Los modelos YOLO de Ultralytics devuelven ya sea una lista de objetos `Results` de Python, o un generador de objetos `Results` de Python eficiente en memoria cuando se pasa `stream=True` al modelo durante la inferencia:
|
||||
|
||||
!!! ejemplo "Predict"
|
||||
!!! Example "Predict"
|
||||
|
||||
=== "Devolver una lista con `stream=False`"
|
||||
```python
|
||||
|
|
@ -92,7 +92,7 @@ Los modelos YOLO de Ultralytics devuelven ya sea una lista de objetos `Results`
|
|||
|
||||
YOLOv8 puede procesar diferentes tipos de fuentes de entrada para la inferencia, como se muestra en la tabla a continuación. Las fuentes incluyen imágenes estáticas, transmisiones de video y varios formatos de datos. La tabla también indica si cada fuente se puede utilizar en modo de transmisión con el argumento `stream=True` ✅. El modo de transmisión es beneficioso para procesar videos o transmisiones en vivo ya que crea un generador de resultados en lugar de cargar todos los fotogramas en la memoria.
|
||||
|
||||
!!! consejo "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
Utilice `stream=True` para procesar videos largos o conjuntos de datos grandes para gestionar eficientemente la memoria. Cuando `stream=False`, los resultados de todos los fotogramas o puntos de datos se almacenan en la memoria, lo que puede aumentar rápidamente y causar errores de memoria insuficiente para entradas grandes. En contraste, `stream=True` utiliza un generador, que solo mantiene los resultados del fotograma o punto de datos actual en la memoria, reduciendo significativamente el consumo de memoria y previniendo problemas de falta de memoria.
|
||||
|
||||
|
|
@ -115,7 +115,7 @@ YOLOv8 puede procesar diferentes tipos de fuentes de entrada para la inferencia,
|
|||
|
||||
A continuación se muestran ejemplos de código para usar cada tipo de fuente:
|
||||
|
||||
!!! ejemplo "Fuentes de predicción"
|
||||
!!! Example "Fuentes de predicción"
|
||||
|
||||
=== "imagen"
|
||||
Ejecute inferencia en un archivo de imagen.
|
||||
|
|
|
|||
|
|
@ -58,7 +58,7 @@ El rastreador predeterminado es BoT-SORT.
|
|||
|
||||
Para ejecutar el rastreador en flujos de video, usa un modelo Detect, Segment o Pose entrenado tales como YOLOv8n, YOLOv8n-seg y YOLOv8n-pose.
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -97,7 +97,7 @@ Como se puede ver en el uso anterior, el seguimiento está disponible para todos
|
|||
|
||||
La configuración de seguimiento comparte propiedades con el modo Predict, como `conf`, `iou` y `show`. Para configuraciones adicionales, consulta la página del modelo [Predict](https://docs.ultralytics.com/modes/predict/).
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -120,7 +120,7 @@ La configuración de seguimiento comparte propiedades con el modo Predict, como
|
|||
|
||||
Ultralytics también te permite usar un archivo de configuración de rastreador modificado. Para hacerlo, simplemente haz una copia de un archivo de configuración de rastreador (por ejemplo, `custom_tracker.yaml`) de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) y modifica cualquier configuración (excepto el `tracker_type`) según tus necesidades.
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -147,7 +147,7 @@ Para obtener una lista completa de los argumentos de seguimiento, consulta la p
|
|||
|
||||
Aquí hay un script en Python que utiliza OpenCV (`cv2`) y YOLOv8 para ejecutar el seguimiento de objetos en fotogramas de video. Este script aún asume que ya has instalado los paquetes necesarios (`opencv-python` y `ultralytics`). El argumento `persist=True` le indica al rastreador que la imagen o fotograma actual es el siguiente en una secuencia y que espera rastros de la imagen anterior en la imagen actual.
|
||||
|
||||
!!! ejemplo "Bucle de transmisión en vivo con seguimiento"
|
||||
!!! Example "Bucle de transmisión en vivo con seguimiento"
|
||||
|
||||
```python
|
||||
import cv2
|
||||
|
|
|
|||
|
|
@ -41,7 +41,7 @@ Las siguientes son algunas características notables del modo Entrenamiento de Y
|
|||
- **Configuración de Hiperparámetros:** La opción de modificar hiperparámetros a través de archivos de configuración YAML o argumentos CLI.
|
||||
- **Visualización y Monitoreo:** Seguimiento en tiempo real de métricas de entrenamiento y visualización del proceso de aprendizaje para una mejor comprensión.
|
||||
|
||||
!!! consejo "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
* Los conjuntos de datos de YOLOv8 como COCO, VOC, ImageNet y muchos otros se descargan automáticamente en el primer uso, es decir, `yolo train data=coco.yaml`
|
||||
|
||||
|
|
@ -49,7 +49,7 @@ Las siguientes son algunas características notables del modo Entrenamiento de Y
|
|||
|
||||
Entrena YOLOv8n en el conjunto de datos COCO128 durante 100 épocas con un tamaño de imagen de 640. El dispositivo de entrenamiento se puede especificar usando el argumento `device`. Si no se pasa ningún argumento, se usará la GPU `device=0` si está disponible; de lo contrario, se usará `device=cpu`. Consulta la sección de Argumentos a continuación para una lista completa de argumentos de entrenamiento.
|
||||
|
||||
!!! ejemplo "Ejemplo de Entrenamiento con una sola GPU y CPU"
|
||||
!!! Example "Ejemplo de Entrenamiento con una sola GPU y CPU"
|
||||
|
||||
El dispositivo se determina automáticamente. Si hay una GPU disponible, se usará; de lo contrario, el entrenamiento comenzará en la CPU.
|
||||
|
||||
|
|
@ -84,7 +84,7 @@ Entrena YOLOv8n en el conjunto de datos COCO128 durante 100 épocas con un tama
|
|||
|
||||
El entrenamiento Multi-GPU permite una utilización más eficiente de los recursos de hardware disponibles, distribuyendo la carga de entrenamiento en varias GPUs. Esta característica está disponible tanto a través de la API de Python como de la interfaz de línea de comandos. Para habilitar el entrenamiento Multi-GPU, especifica los IDs de los dispositivos GPU que deseas usar.
|
||||
|
||||
!!! ejemplo "Ejemplo de Entrenamiento Multi-GPU"
|
||||
!!! Example "Ejemplo de Entrenamiento Multi-GPU"
|
||||
|
||||
Para entrenar con 2 GPUs, dispositivos CUDA 0 y 1, usa los siguientes comandos. Amplía a GPUs adicionales según sea necesario.
|
||||
|
||||
|
|
@ -113,7 +113,7 @@ Con el soporte para los chips Apple M1 y M2 integrados en los modelos Ultralytic
|
|||
|
||||
Para habilitar el entrenamiento en chips Apple M1 y M2, debes especificar 'mps' como tu dispositivo al iniciar el proceso de entrenamiento. A continuación se muestra un ejemplo de cómo podrías hacer esto en Python y a través de la línea de comandos:
|
||||
|
||||
!!! ejemplo "Ejemplo de Entrenamiento MPS"
|
||||
!!! Example "Ejemplo de Entrenamiento MPS"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -148,7 +148,7 @@ Para usar un registrador, selecciónalo en el menú desplegable en el fragmento
|
|||
|
||||
Para usar Comet:
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -166,7 +166,7 @@ Recuerda iniciar sesión en tu cuenta de Comet en su sitio web y obtener tu clav
|
|||
|
||||
Para usar ClearML:
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -184,7 +184,7 @@ Después de ejecutar este script, necesitarás iniciar sesión en tu cuenta de C
|
|||
|
||||
Para usar TensorBoard en [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb):
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
@ -194,7 +194,7 @@ Para usar TensorBoard en [Google Colab](https://colab.research.google.com/github
|
|||
|
||||
Para usar TensorBoard localmente, ejecuta el siguiente comando y visualiza los resultados en http://localhost:6006/.
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
|
|||
|
|
@ -30,7 +30,7 @@ Estas son las funcionalidades notables ofrecidas por el modo Val de YOLOv8:
|
|||
- **CLI y API de Python:** Elija entre la interfaz de línea de comandos o API de Python basada en su preferencia para validación.
|
||||
- **Compatibilidad de Datos:** Funciona sin problemas con conjuntos de datos utilizados durante la fase de entrenamiento así como con conjuntos de datos personalizados.
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
* Los modelos YOLOv8 recuerdan automáticamente sus ajustes de entrenamiento, así que puede validar un modelo en el mismo tamaño de imagen y en el conjunto de datos original fácilmente con solo `yolo val model=yolov8n.pt` o `model('yolov8n.pt').val()`
|
||||
|
||||
|
|
@ -38,7 +38,7 @@ Estas son las funcionalidades notables ofrecidas por el modo Val de YOLOv8:
|
|||
|
||||
Valide la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO128. No es necesario pasar ningún argumento ya que el `modelo` retiene sus `datos` de entrenamiento y argumentos como atributos del modelo. Vea la sección de Argumentos a continuación para una lista completa de argumentos de exportación.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -8,7 +8,7 @@ keywords: instalación de Ultralytics, pip install Ultralytics, instalación de
|
|||
|
||||
Ultralytics ofrece varios métodos de instalación incluyendo pip, conda y Docker. Instala YOLOv8 a través del paquete `ultralytics` de pip para la última versión estable o clonando el [repositorio de GitHub de Ultralytics](https://github.com/ultralytics/ultralytics) para obtener la versión más actualizada. Docker se puede utilizar para ejecutar el paquete en un contenedor aislado, evitando la instalación local.
|
||||
|
||||
!!! example "Instalar"
|
||||
!!! Example "Instalar"
|
||||
|
||||
=== "Instalación con Pip (recomendado)"
|
||||
Instala el paquete `ultralytics` usando pip o actualiza una instalación existente ejecutando `pip install -U ultralytics`. Visita el Índice de Paquetes de Python (PyPI) para más detalles sobre el paquete `ultralytics`: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/).
|
||||
|
|
@ -39,7 +39,7 @@ Ultralytics ofrece varios métodos de instalación incluyendo pip, conda y Docke
|
|||
conda install -c conda-forge ultralytics
|
||||
```
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
Si estás instalando en un entorno CUDA, la mejor práctica es instalar `ultralytics`, `pytorch` y `pytorch-cuda` en el mismo comando para permitir que el gestor de paquetes de conda resuelva cualquier conflicto, o en su defecto instalar `pytorch-cuda` al final para permitir que sobrescriba el paquete específico de CPU `pytorch` si es necesario.
|
||||
```bash
|
||||
|
|
@ -89,7 +89,7 @@ Consulta el archivo [requirements.txt](https://github.com/ultralytics/ultralytic
|
|||
<strong>Watch:</strong> Ultralytics YOLO Quick Start Guide
|
||||
</p>
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
Los requisitos de PyTorch varían según el sistema operativo y los requisitos de CUDA, por lo que se recomienda instalar primero PyTorch siguiendo las instrucciones en [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally).
|
||||
|
||||
|
|
@ -101,7 +101,7 @@ Consulta el archivo [requirements.txt](https://github.com/ultralytics/ultralytic
|
|||
|
||||
La interfaz de línea de comandos (CLI) de Ultralytics permite el uso de comandos simples de una sola línea sin la necesidad de un entorno de Python. La CLI no requiere personalización ni código Python. Puedes simplemente ejecutar todas las tareas desde el terminal con el comando `yolo`. Consulta la [Guía de CLI](/../usage/cli.md) para aprender más sobre el uso de YOLOv8 desde la línea de comandos.
|
||||
|
||||
!!! example
|
||||
!!! Example
|
||||
|
||||
=== "Sintaxis"
|
||||
|
||||
|
|
@ -155,7 +155,7 @@ La interfaz de línea de comandos (CLI) de Ultralytics permite el uso de comando
|
|||
yolo cfg
|
||||
```
|
||||
|
||||
!!! warning "Advertencia"
|
||||
!!! Warning "Advertencia"
|
||||
|
||||
Los argumentos deben pasarse como pares `arg=valor`, separados por un signo igual `=` y delimitados por espacios ` ` entre pares. No utilices prefijos de argumentos `--` ni comas `,` entre los argumentos.
|
||||
|
||||
|
|
@ -171,7 +171,7 @@ La interfaz de Python de YOLOv8 permite una integración perfecta en tus proyect
|
|||
|
||||
Por ejemplo, los usuarios pueden cargar un modelo, entrenarlo, evaluar su rendimiento en un conjunto de validación e incluso exportarlo al formato ONNX con solo unas pocas líneas de código. Consulta la [Guía de Python](/../usage/python.md) para aprender más sobre el uso de YOLOv8 dentro de tus proyectos de Python.
|
||||
|
||||
!!! example
|
||||
!!! Example
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
|
|||
|
|
@ -12,7 +12,7 @@ La clasificación de imágenes es la tarea más sencilla de las tres y consiste
|
|||
|
||||
La salida de un clasificador de imágenes es una única etiqueta de clase y una puntuación de confianza. La clasificación de imágenes es útil cuando solo necesita saber a qué clase pertenece una imagen y no necesita conocer dónde están ubicados los objetos de esa clase o cuál es su forma exacta.
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
Los modelos YOLOv8 Classify utilizan el sufijo `-cls`, por ejemplo, `yolov8n-cls.pt` y están preentrenados en [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml).
|
||||
|
||||
|
|
@ -39,7 +39,7 @@ Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c
|
|||
|
||||
Entrena el modelo YOLOv8n-cls en el conjunto de datos MNIST160 durante 100 épocas con un tamaño de imagen de 64. Para obtener una lista completa de argumentos disponibles, consulte la página de [Configuración](/../usage/cfg.md).
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -76,7 +76,7 @@ El formato del conjunto de datos de clasificación YOLO puede encontrarse en det
|
|||
|
||||
Validar la exactitud del modelo YOLOv8n-cls entrenado en el conjunto de datos MNIST160. No es necesario pasar ningún argumento ya que el `modelo` retiene su `data` y argumentos como atributos del modelo.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -103,7 +103,7 @@ Validar la exactitud del modelo YOLOv8n-cls entrenado en el conjunto de datos MN
|
|||
|
||||
Usar un modelo YOLOv8n-cls entrenado para realizar predicciones en imágenes.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -130,7 +130,7 @@ Ver detalles completos del modo `predict` en la página de [Predicción](https:/
|
|||
|
||||
Exportar un modelo YOLOv8n-cls a un formato diferente como ONNX, CoreML, etc.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ La salida de un detector de objetos es un conjunto de cajas delimitadoras que en
|
|||
<strong>Ver:</strong> Detección de Objetos con Modelo Preentrenado YOLOv8 de Ultralytics.
|
||||
</p>
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
Los modelos YOLOv8 Detect son los modelos predeterminados de YOLOv8, es decir, `yolov8n.pt` y están preentrenados en [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
|
||||
|
||||
|
|
@ -50,7 +50,7 @@ Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c
|
|||
|
||||
Entrena a YOLOv8n en el conjunto de datos COCO128 durante 100 épocas a tamaño de imagen 640. Para una lista completa de argumentos disponibles, consulta la página [Configuración](/../usage/cfg.md).
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -86,7 +86,7 @@ El formato del conjunto de datos de detección de YOLO se puede encontrar en det
|
|||
|
||||
Valida la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO128. No es necesario pasar ningún argumento, ya que el `modelo` retiene sus datos de `entrenamiento` y argumentos como atributos del modelo.
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -115,7 +115,7 @@ Valida la precisión del modelo YOLOv8n entrenado en el conjunto de datos COCO12
|
|||
|
||||
Utiliza un modelo YOLOv8n entrenado para realizar predicciones en imágenes.
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -142,7 +142,7 @@ Consulta los detalles completos del modo `predict` en la página [Predicción](h
|
|||
|
||||
Exporta un modelo YOLOv8n a un formato diferente como ONNX, CoreML, etc.
|
||||
|
||||
!!! ejemplo ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Detección, Segmentación, Clasificación, Estima
|
|||
|
||||
YOLOv8 es un marco de trabajo de IA que soporta múltiples **tareas** de visión por computadora. El marco puede usarse para realizar [detección](detect.md), [segmentación](segment.md), [clasificación](classify.md) y estimación de [pose](pose.md). Cada una de estas tareas tiene un objetivo y caso de uso diferente.
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 Nuestra documentación multilenguaje está actualmente en construcción y estamos trabajando arduamente para mejorarla. ¡Gracias por su paciencia! 🙏
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ La salida de un modelo de estimación de pose es un conjunto de puntos que repre
|
|||
<strong>Ver:</strong> Estimación de Pose con Ultralytics YOLOv8.
|
||||
</p>
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
Los modelos _pose_ YOLOv8 utilizan el sufijo `-pose`, por ejemplo, `yolov8n-pose.pt`. Estos modelos están entrenados en el conjunto de datos [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) y son adecuados para una variedad de tareas de estimación de pose.
|
||||
|
||||
|
|
@ -51,7 +51,7 @@ Los [modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c
|
|||
|
||||
Entrena un modelo YOLOv8-pose en el conjunto de datos COCO128-pose.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -87,7 +87,7 @@ El formato del conjunto de datos de pose de YOLO se puede encontrar en detalle e
|
|||
|
||||
Valida la precisión del modelo YOLOv8n-pose entrenado en el conjunto de datos COCO128-pose. No es necesario pasar ningún argumento ya que el `modelo` mantiene sus `datos` de entrenamiento y argumentos como atributos del modelo.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -116,7 +116,7 @@ Valida la precisión del modelo YOLOv8n-pose entrenado en el conjunto de datos C
|
|||
|
||||
Usa un modelo YOLOv8n-pose entrenado para realizar predicciones en imágenes.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -143,7 +143,7 @@ Consulta los detalles completos del modo `predict` en la página de [Predicción
|
|||
|
||||
Exporta un modelo YOLOv8n Pose a un formato diferente como ONNX, CoreML, etc.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ La salida de un modelo de segmentación de instancias es un conjunto de máscara
|
|||
<strong>Mira:</strong> Ejecuta la Segmentación con el Modelo Ultralytics YOLOv8 Preentrenado en Python.
|
||||
</p>
|
||||
|
||||
!!! tip "Consejo"
|
||||
!!! Tip "Consejo"
|
||||
|
||||
Los modelos YOLOv8 Segment utilizan el sufijo `-seg`, es decir, `yolov8n-seg.pt` y están preentrenados en el [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
|
||||
|
||||
|
|
@ -50,7 +50,7 @@ Los [Modelos](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/c
|
|||
|
||||
Entrena el modelo YOLOv8n-seg en el conjunto de datos COCO128-seg durante 100 épocas con tamaño de imagen de 640. Para una lista completa de argumentos disponibles, consulta la página de [Configuración](/../usage/cfg.md).
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -86,7 +86,7 @@ El formato del conjunto de datos de segmentación YOLO puede encontrarse detalla
|
|||
|
||||
Valida la precisión del modelo YOLOv8n-seg entrenado en el conjunto de datos COCO128-seg. No es necesario pasar ningún argumento ya que el `modelo` retiene sus `datos` de entrenamiento y argumentos como atributos del modelo.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -119,7 +119,7 @@ Valida la precisión del modelo YOLOv8n-seg entrenado en el conjunto de datos CO
|
|||
|
||||
Usa un modelo YOLOv8n-seg entrenado para realizar predicciones en imágenes.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -146,7 +146,7 @@ Consulta todos los detalles del modo `predict` en la página de [Predicción](ht
|
|||
|
||||
Exporta un modelo YOLOv8n-seg a un formato diferente como ONNX, CoreML, etc.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Ejemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue