Update docs predict, buttons, reference (#6585)
Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com>
This commit is contained in:
parent
a1ccdb00ed
commit
e361194d7f
141 changed files with 1044 additions and 828 deletions
|
|
@ -40,34 +40,34 @@ Esta guía completa tiene como objetivo proporcionarte una visión general y con
|
|||
|
||||
El modo Entrenar se utiliza para entrenar un modelo YOLOv8 en un conjunto de datos personalizado. En este modo, el modelo se entrena utilizando el conjunto de datos y los hiperparámetros especificados. El proceso de entrenamiento implica optimizar los parámetros del modelo para que pueda predecir con precisión las clases y ubicaciones de los objetos en una imagen.
|
||||
|
||||
[Ejemplos de Entrenamiento](train.md){ .md-button .md-button--primary}
|
||||
[Ejemplos de Entrenamiento](train.md){ .md-button }
|
||||
|
||||
## [Validar (Val)](val.md)
|
||||
|
||||
El modo Validar se usa para validar un modelo YOLOv8 después de haber sido entrenado. En este modo, el modelo se evalúa en un conjunto de validación para medir su precisión y rendimiento de generalización. Este modo se puede usar para ajustar los hiperparámetros del modelo y mejorar su rendimiento.
|
||||
|
||||
[Ejemplos de Validación](val.md){ .md-button .md-button--primary}
|
||||
[Ejemplos de Validación](val.md){ .md-button }
|
||||
|
||||
## [Predecir (Predict)](predict.md)
|
||||
|
||||
El modo Predecir se utiliza para realizar predicciones usando un modelo YOLOv8 entrenado en imágenes o videos nuevos. En este modo, el modelo se carga desde un archivo de punto de control, y el usuario puede proporcionar imágenes o videos para realizar inferencias. El modelo predice las clases y ubicaciones de los objetos en las imágenes o videos de entrada.
|
||||
|
||||
[Ejemplos de Predicción](predict.md){ .md-button .md-button--primary}
|
||||
[Ejemplos de Predicción](predict.md){ .md-button }
|
||||
|
||||
## [Exportar (Export)](export.md)
|
||||
|
||||
El modo Exportar se utiliza para exportar un modelo YOLOv8 a un formato que se pueda usar para la implementación. En este modo, el modelo se convierte a un formato que puede ser utilizado por otras aplicaciones de software o dispositivos de hardware. Este modo es útil al implementar el modelo en entornos de producción.
|
||||
|
||||
[Ejemplos de Exportación](export.md){ .md-button .md-button--primary}
|
||||
[Ejemplos de Exportación](export.md){ .md-button }
|
||||
|
||||
## [Seguir (Track)](track.md)
|
||||
|
||||
El modo Seguir se usa para rastrear objetos en tiempo real utilizando un modelo YOLOv8. En este modo, el modelo se carga desde un archivo de punto de control, y el usuario puede proporcionar un flujo de video en vivo para realizar seguimiento de objetos en tiempo real. Este modo es útil para aplicaciones como sistemas de vigilancia o coches autónomos.
|
||||
|
||||
[Ejemplos de Seguimiento](track.md){ .md-button .md-button--primary}
|
||||
[Ejemplos de Seguimiento](track.md){ .md-button }
|
||||
|
||||
## [Benchmark (Benchmark)](benchmark.md)
|
||||
|
||||
El modo Benchmark se utiliza para perfilar la velocidad y precisión de varios formatos de exportación de YOLOv8. Los benchmarks proporcionan información sobre el tamaño del formato de exportación, sus métricas de `mAP50-95` (para detección de objetos, segmentación y pose) o métricas de `accuracy_top5` (para clasificación), y el tiempo de inferencia en milisegundos por imagen a través de varios formatos de exportación como ONNX, OpenVINO, TensorRT y otros. Esta información puede ayudar a los usuarios a elegir el formato de exportación óptimo para su caso de uso específico, basado en sus requerimientos de velocidad y precisión.
|
||||
|
||||
[Ejemplos de Benchmarking](benchmark.md){ .md-button .md-button--primary}
|
||||
[Ejemplos de Benchmarking](benchmark.md){ .md-button }
|
||||
|
|
|
|||
|
|
@ -30,25 +30,25 @@ YOLOv8 es un marco de trabajo de IA que soporta múltiples **tareas** de visión
|
|||
|
||||
La detección es la tarea principal soportada por YOLOv8. Implica detectar objetos en una imagen o cuadro de video y dibujar cuadros delimitadores alrededor de ellos. Los objetos detectados se clasifican en diferentes categorías basadas en sus características. YOLOv8 puede detectar múltiples objetos en una sola imagen o cuadro de video con alta precisión y velocidad.
|
||||
|
||||
[Ejemplos de Detección](detect.md){ .md-button .md-button--primary}
|
||||
[Ejemplos de Detección](detect.md){ .md-button }
|
||||
|
||||
## [Segmentación](segment.md)
|
||||
|
||||
La segmentación es una tarea que implica segmentar una imagen en diferentes regiones basadas en el contenido de la imagen. A cada región se le asigna una etiqueta basada en su contenido. Esta tarea es útil en aplicaciones tales como segmentación de imágenes y imágenes médicas. YOLOv8 utiliza una variante de la arquitectura U-Net para realizar la segmentación.
|
||||
|
||||
[Ejemplos de Segmentación](segment.md){ .md-button .md-button--primary}
|
||||
[Ejemplos de Segmentación](segment.md){ .md-button }
|
||||
|
||||
## [Clasificación](classify.md)
|
||||
|
||||
La clasificación es una tarea que implica clasificar una imagen en diferentes categorías. YOLOv8 puede usarse para clasificar imágenes basadas en su contenido. Utiliza una variante de la arquitectura EfficientNet para realizar la clasificación.
|
||||
|
||||
[Ejemplos de Clasificación](classify.md){ .md-button .md-button--primary}
|
||||
[Ejemplos de Clasificación](classify.md){ .md-button }
|
||||
|
||||
## [Pose](pose.md)
|
||||
|
||||
La detección de pose/puntos clave es una tarea que implica detectar puntos específicos en una imagen o cuadro de video. Estos puntos se conocen como puntos clave y se utilizan para rastrear el movimiento o la estimación de la pose. YOLOv8 puede detectar puntos clave en una imagen o cuadro de video con alta precisión y velocidad.
|
||||
|
||||
[Ejemplos de Pose](pose.md){ .md-button .md-button--primary}
|
||||
[Ejemplos de Pose](pose.md){ .md-button }
|
||||
|
||||
## Conclusión
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue