Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)
Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
parent
b6baae584c
commit
02bf8003a8
337 changed files with 6584 additions and 777 deletions
|
|
@ -41,7 +41,7 @@ Une fois votre modèle entraîné et validé, l'étape logique suivante est d'é
|
|||
|
||||
Exécutez les benchmarks YOLOv8n sur tous les formats d'exportation supportés, y compris ONNX, TensorRT, etc. Consultez la section Arguments ci-dessous pour une liste complète des arguments d'exportation.
|
||||
|
||||
!!! exemple ""
|
||||
!!! Example "Exemple"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -48,7 +48,7 @@ Voici quelques-unes des fonctionnalités remarquables :
|
|||
|
||||
Exportez un modèle YOLOv8n vers un format différent tel que ONNX ou TensorRT. Voir la section Arguments ci-dessous pour une liste complète des arguments d'exportation.
|
||||
|
||||
!!! exemple ""
|
||||
!!! Example "Exemple"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -50,7 +50,7 @@ Le mode de prédiction YOLOv8 est conçu pour être robuste et polyvalent, avec
|
|||
|
||||
Les modèles YOLO d'Ultralytics renvoient soit une liste d'objets `Results` Python, soit un générateur Python efficace en termes de mémoire d'objets `Results` lorsque `stream=True` est passé au modèle pendant l'inférence :
|
||||
|
||||
!!! exemple "Prédire"
|
||||
!!! Example "Prédire"
|
||||
|
||||
=== "Renvoie une liste avec `stream=False`"
|
||||
```python
|
||||
|
|
@ -115,7 +115,7 @@ YOLOv8 peut traiter différents types de sources d'entrée pour l'inférence, co
|
|||
|
||||
Ci-dessous des exemples de code pour utiliser chaque type de source :
|
||||
|
||||
!!! exemple "Sources de prédiction"
|
||||
!!! Example "Sources de prédiction"
|
||||
|
||||
=== "image"
|
||||
Exécutez une inférence sur un fichier image.
|
||||
|
|
|
|||
|
|
@ -58,7 +58,7 @@ Le traceur par défaut est BoT-SORT.
|
|||
|
||||
Pour exécuter le traceur sur des flux vidéo, utilisez un modèle Detect, Segment ou Pose formé tel que YOLOv8n, YOLOv8n-seg et YOLOv8n-pose.
|
||||
|
||||
!!! exemple ""
|
||||
!!! Example "Exemple"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -97,7 +97,7 @@ Comme on peut le voir dans l'utilisation ci-dessus, le suivi est disponible pour
|
|||
|
||||
La configuration du suivi partage des propriétés avec le mode Prédiction, telles que `conf`, `iou`, et `show`. Pour des configurations supplémentaires, référez-vous à la page [Predict](https://docs.ultralytics.com/modes/predict/) du modèle.
|
||||
|
||||
!!! exemple ""
|
||||
!!! Example "Exemple"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -120,7 +120,7 @@ La configuration du suivi partage des propriétés avec le mode Prédiction, tel
|
|||
|
||||
Ultralytics vous permet également d'utiliser un fichier de configuration de traceur modifié. Pour cela, faites simplement une copie d'un fichier de configuration de traceur (par exemple, `custom_tracker.yaml`) à partir de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) et modifiez toute configuration (à l'exception du `tracker_type`) selon vos besoins.
|
||||
|
||||
!!! exemple ""
|
||||
!!! Example "Exemple"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -147,7 +147,7 @@ Pour une liste complète des arguments de suivi, référez-vous à la page [ultr
|
|||
|
||||
Voici un script Python utilisant OpenCV (`cv2`) et YOLOv8 pour exécuter le suivi d'objet sur des images vidéo. Ce script suppose toujours que vous avez déjà installé les packages nécessaires (`opencv-python` et `ultralytics`). L'argument `persist=True` indique au traceur que l'image ou la trame actuelle est la suivante dans une séquence et s'attend à ce que les pistes de l'image précédente soient présentes dans l'image actuelle.
|
||||
|
||||
!!! exemple "Boucle for streaming avec suivi"
|
||||
!!! Example "Boucle for streaming avec suivi"
|
||||
|
||||
```python
|
||||
import cv2
|
||||
|
|
|
|||
|
|
@ -41,7 +41,7 @@ Voici quelques caractéristiques remarquables du mode Entraînement de YOLOv8 :
|
|||
- **Configuration des hyperparamètres :** La possibilité de modifier les hyperparamètres via des fichiers de configuration YAML ou des arguments CLI.
|
||||
- **Visualisation et suivi :** Suivi en temps réel des métriques d'entraînement et visualisation du processus d'apprentissage pour de meilleures perspectives.
|
||||
|
||||
!!! tip "Astuce"
|
||||
!!! Tip "Astuce"
|
||||
|
||||
* Les jeux de données YOLOv8 comme COCO, VOC, ImageNet et bien d'autres se téléchargent automatiquement lors de la première utilisation, par exemple `yolo train data=coco.yaml`
|
||||
|
||||
|
|
@ -49,7 +49,7 @@ Voici quelques caractéristiques remarquables du mode Entraînement de YOLOv8 :
|
|||
|
||||
Entraînez YOLOv8n sur le jeu de données COCO128 pendant 100 époques avec une taille d'image de 640. Le dispositif d'entraînement peut être spécifié à l'aide de l'argument `device`. Si aucun argument n'est passé, le GPU `device=0` sera utilisé s'il est disponible, sinon `device=cpu` sera utilisé. Consultez la section Arguments ci-dessous pour obtenir une liste complète des arguments d'entraînement.
|
||||
|
||||
!!! example "Exemple d'entraînement mono-GPU et CPU"
|
||||
!!! Example "Exemple d'entraînement mono-GPU et CPU"
|
||||
|
||||
Le dispositif est déterminé automatiquement. Si un GPU est disponible, il sera utilisé, sinon l'entraînement commencera sur CPU.
|
||||
|
||||
|
|
@ -84,7 +84,7 @@ Entraînez YOLOv8n sur le jeu de données COCO128 pendant 100 époques avec une
|
|||
|
||||
L'entraînement multi-GPU permet une utilisation plus efficace des ressources matérielles disponibles en répartissant la charge d'entraînement sur plusieurs GPUs. Cette fonctionnalité est disponible via l'API Python et l'interface de ligne de commande. Pour activer l'entraînement multi-GPU, spécifiez les ID des dispositifs GPU que vous souhaitez utiliser.
|
||||
|
||||
!!! example "Exemple d'entraînement multi-GPU"
|
||||
!!! Example "Exemple d'entraînement multi-GPU"
|
||||
|
||||
Pour s'entraîner avec 2 GPUs, les dispositifs CUDA 0 et 1, utilisez les commandes suivantes. Développez à des GPUs supplémentaires selon le besoin.
|
||||
|
||||
|
|
@ -113,7 +113,7 @@ Avec le support pour les puces Apple M1 et M2 intégré dans les modèles Ultral
|
|||
|
||||
Pour activer l'entraînement sur les puces Apple M1 et M2, vous devez spécifier 'mps' comme votre dispositif lors du lancement du processus d'entraînement. Voici un exemple de la manière dont vous pourriez le faire en Python et via la ligne de commande :
|
||||
|
||||
!!! example "Exemple d'entraînement MPS"
|
||||
!!! Example "Exemple d'entraînement MPS"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -148,7 +148,7 @@ Pour utiliser un journal, sélectionnez-le dans le menu déroulant ci-dessus et
|
|||
|
||||
Pour utiliser Comet :
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Exemple"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -166,7 +166,7 @@ N'oubliez pas de vous connecter à votre compte Comet sur leur site web et d'obt
|
|||
|
||||
Pour utiliser ClearML :
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Exemple"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -184,7 +184,7 @@ Après avoir exécuté ce script, vous devrez vous connecter à votre compte Cle
|
|||
|
||||
Pour utiliser TensorBoard dans [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) :
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Exemple"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
@ -194,7 +194,7 @@ Pour utiliser TensorBoard dans [Google Colab](https://colab.research.google.com/
|
|||
|
||||
Pour utiliser TensorBoard localement, exécutez la commande ci-dessous et consultez les résultats à l'adresse http://localhost:6006/.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Exemple"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
|
|||
|
|
@ -30,7 +30,7 @@ Voici les fonctionnalités notables offertes par le mode Val de YOLOv8 :
|
|||
- **CLI et API Python :** Choisissez entre l'interface en ligne de commande ou l'API Python en fonction de vos préférences pour la validation.
|
||||
- **Compatibilité des Données :** Fonctionne de manière transparente avec les jeux de données utilisés pendant la phase d'entraînement ainsi qu'avec les jeux personnalisés.
|
||||
|
||||
!!! tip "Conseil"
|
||||
!!! Tip "Conseil"
|
||||
|
||||
* Les modèles YOLOv8 se souviennent automatiquement de leurs paramètres d'entraînement, vous pouvez donc facilement valider un modèle à la même taille d'image et sur le jeu de données original avec juste `yolo val model=yolov8n.pt` ou `model('yolov8n.pt').val()`
|
||||
|
||||
|
|
@ -38,7 +38,7 @@ Voici les fonctionnalités notables offertes par le mode Val de YOLOv8 :
|
|||
|
||||
Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO128. Aucun argument n'a besoin d'être passé car le `modèle` conserve ses `données` d'entraînement et arguments comme attributs du modèle. Consultez la section des arguments ci-dessous pour une liste complète des arguments d'exportation.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Exemple"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue