Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)

Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com>
Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
Glenn Jocher 2023-11-18 21:51:47 +01:00 committed by GitHub
parent b6baae584c
commit 02bf8003a8
No known key found for this signature in database
GPG key ID: 4AEE18F83AFDEB23
337 changed files with 6584 additions and 777 deletions

View file

@ -8,7 +8,7 @@ keywords: vision par ordinateur, ensembles de données, Ultralytics, YOLO, déte
Ultralytics fournit un soutien pour divers ensembles de données pour faciliter les tâches de vision par ordinateur telles que la détection, la segmentation d'instance, l'estimation de la pose, la classification et le suivi multi-objets. Ci-dessous se trouve une liste des principaux ensembles de données Ultralytics, suivie d'un résumé de chaque tâche de vision par ordinateur et des ensembles de données respectifs.
!!! note
!!! Note
🚧 Notre documentation multilingue est actuellement en cours de construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏
@ -104,7 +104,7 @@ Contribuer un nouvel ensemble de données implique plusieurs étapes pour s'assu
### Exemple de Code pour Optimiser et Zipper un Ensemble de Données
!!! exemple "Optimiser et Zipper un Ensemble de Données"
!!! Example "Optimiser et Zipper un Ensemble de Données"
=== "Python"

View file

@ -38,7 +38,7 @@ Présentation d'[Ultralytics](https://ultralytics.com) [YOLOv8](https://github.c
Explorez les Docs YOLOv8, une ressource complète conçue pour vous aider à comprendre et à utiliser ses fonctionnalités et capacités. Que vous soyez un praticien chevronné de l'apprentissage automatique ou nouveau dans le domaine, ce hub vise à maximiser le potentiel de YOLOv8 dans vos projets.
!!! note
!!! Note
🚧 Notre documentation multilingue est actuellement en construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏

View file

@ -8,7 +8,7 @@ keywords: Ultralytics, documentation, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, R
Bienvenue dans la documentation des modèles d'Ultralytics ! Nous proposons une prise en charge d'une large gamme de modèles, chacun adapté à des tâches spécifiques comme [la détection d'objets](../tasks/detect.md), [la segmentation d'instances](../tasks/segment.md), [la classification d'images](../tasks/classify.md), [l'estimation de posture](../tasks/pose.md) et [le suivi multi-objets](../modes/track.md). Si vous souhaitez contribuer avec votre architecture de modèle à Ultralytics, consultez notre [Guide de Contribution](../../help/contributing.md).
!!! note
!!! Note
🚧 Notre documentation multilingue est actuellement en construction et nous travaillons activement à l'améliorer. Merci de votre patience ! 🙏
@ -41,7 +41,7 @@ Voici quelques-uns des modèles clés pris en charge :
## Pour commencer : Exemples d'utilisation
!!! example ""
!!! Example "Exemple"
=== "Python"

View file

@ -41,7 +41,7 @@ Une fois votre modèle entraîné et validé, l'étape logique suivante est d'é
Exécutez les benchmarks YOLOv8n sur tous les formats d'exportation supportés, y compris ONNX, TensorRT, etc. Consultez la section Arguments ci-dessous pour une liste complète des arguments d'exportation.
!!! exemple ""
!!! Example "Exemple"
=== "Python"

View file

@ -48,7 +48,7 @@ Voici quelques-unes des fonctionnalités remarquables :
Exportez un modèle YOLOv8n vers un format différent tel que ONNX ou TensorRT. Voir la section Arguments ci-dessous pour une liste complète des arguments d'exportation.
!!! exemple ""
!!! Example "Exemple"
=== "Python"

View file

@ -50,7 +50,7 @@ Le mode de prédiction YOLOv8 est conçu pour être robuste et polyvalent, avec
Les modèles YOLO d'Ultralytics renvoient soit une liste d'objets `Results` Python, soit un générateur Python efficace en termes de mémoire d'objets `Results` lorsque `stream=True` est passé au modèle pendant l'inférence :
!!! exemple "Prédire"
!!! Example "Prédire"
=== "Renvoie une liste avec `stream=False`"
```python
@ -115,7 +115,7 @@ YOLOv8 peut traiter différents types de sources d'entrée pour l'inférence, co
Ci-dessous des exemples de code pour utiliser chaque type de source :
!!! exemple "Sources de prédiction"
!!! Example "Sources de prédiction"
=== "image"
Exécutez une inférence sur un fichier image.

View file

@ -58,7 +58,7 @@ Le traceur par défaut est BoT-SORT.
Pour exécuter le traceur sur des flux vidéo, utilisez un modèle Detect, Segment ou Pose formé tel que YOLOv8n, YOLOv8n-seg et YOLOv8n-pose.
!!! exemple ""
!!! Example "Exemple"
=== "Python"
@ -97,7 +97,7 @@ Comme on peut le voir dans l'utilisation ci-dessus, le suivi est disponible pour
La configuration du suivi partage des propriétés avec le mode Prédiction, telles que `conf`, `iou`, et `show`. Pour des configurations supplémentaires, référez-vous à la page [Predict](https://docs.ultralytics.com/modes/predict/) du modèle.
!!! exemple ""
!!! Example "Exemple"
=== "Python"
@ -120,7 +120,7 @@ La configuration du suivi partage des propriétés avec le mode Prédiction, tel
Ultralytics vous permet également d'utiliser un fichier de configuration de traceur modifié. Pour cela, faites simplement une copie d'un fichier de configuration de traceur (par exemple, `custom_tracker.yaml`) à partir de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) et modifiez toute configuration (à l'exception du `tracker_type`) selon vos besoins.
!!! exemple ""
!!! Example "Exemple"
=== "Python"
@ -147,7 +147,7 @@ Pour une liste complète des arguments de suivi, référez-vous à la page [ultr
Voici un script Python utilisant OpenCV (`cv2`) et YOLOv8 pour exécuter le suivi d'objet sur des images vidéo. Ce script suppose toujours que vous avez déjà installé les packages nécessaires (`opencv-python` et `ultralytics`). L'argument `persist=True` indique au traceur que l'image ou la trame actuelle est la suivante dans une séquence et s'attend à ce que les pistes de l'image précédente soient présentes dans l'image actuelle.
!!! exemple "Boucle for streaming avec suivi"
!!! Example "Boucle for streaming avec suivi"
```python
import cv2

View file

@ -41,7 +41,7 @@ Voici quelques caractéristiques remarquables du mode Entraînement de YOLOv8 :
- **Configuration des hyperparamètres :** La possibilité de modifier les hyperparamètres via des fichiers de configuration YAML ou des arguments CLI.
- **Visualisation et suivi :** Suivi en temps réel des métriques d'entraînement et visualisation du processus d'apprentissage pour de meilleures perspectives.
!!! tip "Astuce"
!!! Tip "Astuce"
* Les jeux de données YOLOv8 comme COCO, VOC, ImageNet et bien d'autres se téléchargent automatiquement lors de la première utilisation, par exemple `yolo train data=coco.yaml`
@ -49,7 +49,7 @@ Voici quelques caractéristiques remarquables du mode Entraînement de YOLOv8 :
Entraînez YOLOv8n sur le jeu de données COCO128 pendant 100 époques avec une taille d'image de 640. Le dispositif d'entraînement peut être spécifié à l'aide de l'argument `device`. Si aucun argument n'est passé, le GPU `device=0` sera utilisé s'il est disponible, sinon `device=cpu` sera utilisé. Consultez la section Arguments ci-dessous pour obtenir une liste complète des arguments d'entraînement.
!!! example "Exemple d'entraînement mono-GPU et CPU"
!!! Example "Exemple d'entraînement mono-GPU et CPU"
Le dispositif est déterminé automatiquement. Si un GPU est disponible, il sera utilisé, sinon l'entraînement commencera sur CPU.
@ -84,7 +84,7 @@ Entraînez YOLOv8n sur le jeu de données COCO128 pendant 100 époques avec une
L'entraînement multi-GPU permet une utilisation plus efficace des ressources matérielles disponibles en répartissant la charge d'entraînement sur plusieurs GPUs. Cette fonctionnalité est disponible via l'API Python et l'interface de ligne de commande. Pour activer l'entraînement multi-GPU, spécifiez les ID des dispositifs GPU que vous souhaitez utiliser.
!!! example "Exemple d'entraînement multi-GPU"
!!! Example "Exemple d'entraînement multi-GPU"
Pour s'entraîner avec 2 GPUs, les dispositifs CUDA 0 et 1, utilisez les commandes suivantes. Développez à des GPUs supplémentaires selon le besoin.
@ -113,7 +113,7 @@ Avec le support pour les puces Apple M1 et M2 intégré dans les modèles Ultral
Pour activer l'entraînement sur les puces Apple M1 et M2, vous devez spécifier 'mps' comme votre dispositif lors du lancement du processus d'entraînement. Voici un exemple de la manière dont vous pourriez le faire en Python et via la ligne de commande :
!!! example "Exemple d'entraînement MPS"
!!! Example "Exemple d'entraînement MPS"
=== "Python"
@ -148,7 +148,7 @@ Pour utiliser un journal, sélectionnez-le dans le menu déroulant ci-dessus et
Pour utiliser Comet :
!!! example ""
!!! Example "Exemple"
=== "Python"
```python
@ -166,7 +166,7 @@ N'oubliez pas de vous connecter à votre compte Comet sur leur site web et d'obt
Pour utiliser ClearML :
!!! example ""
!!! Example "Exemple"
=== "Python"
```python
@ -184,7 +184,7 @@ Après avoir exécuté ce script, vous devrez vous connecter à votre compte Cle
Pour utiliser TensorBoard dans [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) :
!!! example ""
!!! Example "Exemple"
=== "CLI"
```bash
@ -194,7 +194,7 @@ Pour utiliser TensorBoard dans [Google Colab](https://colab.research.google.com/
Pour utiliser TensorBoard localement, exécutez la commande ci-dessous et consultez les résultats à l'adresse http://localhost:6006/.
!!! example ""
!!! Example "Exemple"
=== "CLI"
```bash

View file

@ -30,7 +30,7 @@ Voici les fonctionnalités notables offertes par le mode Val de YOLOv8 :
- **CLI et API Python :** Choisissez entre l'interface en ligne de commande ou l'API Python en fonction de vos préférences pour la validation.
- **Compatibilité des Données :** Fonctionne de manière transparente avec les jeux de données utilisés pendant la phase d'entraînement ainsi qu'avec les jeux personnalisés.
!!! tip "Conseil"
!!! Tip "Conseil"
* Les modèles YOLOv8 se souviennent automatiquement de leurs paramètres d'entraînement, vous pouvez donc facilement valider un modèle à la même taille d'image et sur le jeu de données original avec juste `yolo val model=yolov8n.pt` ou `model('yolov8n.pt').val()`
@ -38,7 +38,7 @@ Voici les fonctionnalités notables offertes par le mode Val de YOLOv8 :
Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO128. Aucun argument n'a besoin d'être passé car le `modèle` conserve ses `données` d'entraînement et arguments comme attributs du modèle. Consultez la section des arguments ci-dessous pour une liste complète des arguments d'exportation.
!!! example ""
!!! Example "Exemple"
=== "Python"

View file

@ -8,7 +8,7 @@ keywords: installation d'Ultralytics, pip install Ultralytics, Docker install Ul
Ultralytics propose diverses méthodes d'installation, y compris pip, conda et Docker. Installez YOLOv8 via le package `ultralytics` avec pip pour obtenir la dernière version stable ou en clonant le [répertoire GitHub d'Ultralytics](https://github.com/ultralytics/ultralytics) pour la version la plus récente. Docker peut être utilisé pour exécuter le package dans un conteneur isolé, évitant l'installation locale.
!!! exemple "Installer"
!!! Example "Installer"
=== "Installation avec Pip (recommandé)"
Installez le package `ultralytics` en utilisant pip, ou mettez à jour une installation existante en exécutant `pip install -U ultralytics`. Visitez l'Index des Packages Python (PyPI) pour plus de détails sur le package `ultralytics` : [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/).
@ -39,7 +39,7 @@ Ultralytics propose diverses méthodes d'installation, y compris pip, conda et D
conda install -c conda-forge ultralytics
```
!!! note
!!! Note
Si vous installez dans un environnement CUDA, la meilleure pratique est d'installer `ultralytics`, `pytorch` et `pytorch-cuda` dans la même commande pour permettre au gestionnaire de package conda de résoudre les conflits, ou bien d'installer `pytorch-cuda` en dernier pour lui permettre de remplacer le package `pytorch` spécifique aux CPU si nécessaire.
```bash
@ -101,7 +101,7 @@ Voir le fichier [requirements.txt](https://github.com/ultralytics/ultralytics/bl
L'interface en ligne de commande (CLI) d'Ultralytics permet l'utilisation de commandes simples en une seule ligne sans nécessiter d'environnement Python. La CLI ne requiert pas de personnalisation ou de code Python. Vous pouvez simplement exécuter toutes les tâches depuis le terminal avec la commande `yolo`. Consultez le [Guide CLI](/../usage/cli.md) pour en savoir plus sur l'utilisation de YOLOv8 depuis la ligne de commande.
!!! exemple
!!! Example
=== "Syntaxe"
@ -155,7 +155,7 @@ L'interface en ligne de commande (CLI) d'Ultralytics permet l'utilisation de com
yolo cfg
```
!!! avertissement "Avertissement"
!!! Warning "Avertissement"
Les arguments doivent être passés sous forme de paires `arg=val`, séparés par un signe égal `=` et délimités par des espaces ` ` entre les paires. N'utilisez pas de préfixes d'arguments `--` ou de virgules `,` entre les arguments.
@ -171,7 +171,7 @@ L'interface Python de YOLOv8 permet une intégration transparente dans vos proje
Par exemple, les utilisateurs peuvent charger un modèle, l'entraîner, évaluer ses performances sur un set de validation, et même l'exporter au format ONNX avec seulement quelques lignes de code. Consultez le [Guide Python](/../usage/python.md) pour en savoir plus sur l'utilisation de YOLOv8 au sein de vos projets Python.
!!! exemple
!!! Example
```python
from ultralytics import YOLO

View file

@ -12,7 +12,7 @@ La classification d'images est la tâche la plus simple des trois et consiste à
Le résultat d'un classificateur d'images est une étiquette de classe unique et un score de confiance. La classification d'images est utile lorsque vous avez besoin de savoir seulement à quelle classe appartient une image et que vous n'avez pas besoin de connaître l'emplacement des objets de cette classe ou leur forme exacte.
!!! tip "Astuce"
!!! Tip "Astuce"
Les modèles YOLOv8 Classify utilisent le suffixe `-cls`, par exemple `yolov8n-cls.pt` et sont pré-entraînés sur [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml).
@ -39,7 +39,7 @@ Les [modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/
Entraînez le modèle YOLOv8n-cls sur le dataset MNIST160 pendant 100 époques avec une taille d'image de 64. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md).
!!! example ""
!!! Example "Exemple"
=== "Python"
@ -76,7 +76,7 @@ Le format du dataset de classification YOLO peut être trouvé en détails dans
Validez la précision du modèle YOLOv8n-cls entraîné sur le dataset MNIST160. Aucun argument n'est nécessaire car le `modèle` conserve ses données d'entraînement et arguments en tant qu'attributs du modèle.
!!! example ""
!!! Example "Exemple"
=== "Python"
@ -103,7 +103,7 @@ Validez la précision du modèle YOLOv8n-cls entraîné sur le dataset MNIST160.
Utilisez un modèle YOLOv8n-cls entraîné pour exécuter des prédictions sur des images.
!!! example ""
!!! Example "Exemple"
=== "Python"
@ -130,7 +130,7 @@ Voir les détails complets du mode `predict` sur la page [Prédire](https://docs
Exportez un modèle YOLOv8n-cls dans un format différent comme ONNX, CoreML, etc.
!!! example ""
!!! Example "Exemple"
=== "Python"

View file

@ -23,7 +23,7 @@ La sortie d'un détecteur d'objets est un ensemble de boîtes englobantes qui en
<strong>Regardez :</strong> Détection d'Objets avec le Modèle Pré-entraîné Ultralytics YOLOv8.
</p>
!!! tip "Conseil"
!!! Tip "Conseil"
Les modèles Detect YOLOv8 sont les modèles YOLOv8 par défaut, c.-à-d. `yolov8n.pt` et sont pré-entraînés sur le jeu de données [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml).
@ -50,7 +50,7 @@ Les modèles pré-entraînés Detect YOLOv8 sont présentés ici. Les modèles D
Entraînez le modèle YOLOv8n sur le jeu de données COCO128 pendant 100 époques à la taille d'image de 640. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md).
!!! example ""
!!! Example "Exemple"
=== "Python"
@ -86,7 +86,7 @@ Le format des jeux de données de détection YOLO est détaillé dans le [Guide
Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO128. Aucun argument n'est nécessaire puisque le `modèle` conserve ses `données` d'entraînement et arguments en tant qu'attributs du modèle.
!!! example ""
!!! Example "Exemple"
=== "Python"
@ -115,7 +115,7 @@ Validez la précision du modèle YOLOv8n entraîné sur le jeu de données COCO1
Utilisez un modèle YOLOv8n entraîné pour exécuter des prédictions sur des images.
!!! example ""
!!! Example "Exemple"
=== "Python"
@ -142,7 +142,7 @@ Consultez les détails complets du mode `predict` sur la page [Prédire](https:/
Exportez un modèle YOLOv8n dans un format différent tel que ONNX, CoreML, etc.
!!! example ""
!!! Example "Exemple"
=== "Python"

View file

@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Détection, Segmentation, Classification, Estimat
YOLOv8 est un cadre d'intelligence artificielle qui prend en charge de multiples tâches de **vision par ordinateur**. Le cadre peut être utilisé pour effectuer de la [détection](detect.md), de la [segmentation](segment.md), de la [classification](classify.md) et de l'estimation de la [pose](pose.md). Chacune de ces tâches a un objectif et un cas d'utilisation différents.
!!! note
!!! Note
🚧 Notre documentation multilingue est actuellement en construction et nous travaillons dur pour l'améliorer. Merci de votre patience ! 🙏

View file

@ -42,7 +42,7 @@ Les [Modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/
Entraînez un modèle YOLOv8-pose sur le jeu de données COCO128-pose.
!!! exemple ""
!!! Example "Exemple"
=== "Python"
@ -78,7 +78,7 @@ Le format du jeu de données YOLO pose peut être trouvé en détail dans le [Gu
Validez la précision du modèle YOLOv8n-pose entraîné sur le jeu de données COCO128-pose. Aucun argument n'est nécessaire car le `modèle` conserve ses données d'entraînement et arguments en tant qu'attributs du modèle.
!!! exemple ""
!!! Example "Exemple"
=== "Python"
@ -107,7 +107,7 @@ Validez la précision du modèle YOLOv8n-pose entraîné sur le jeu de données
Utilisez un modèle YOLOv8n-pose entraîné pour exécuter des prédictions sur des images.
!!! exemple ""
!!! Example "Exemple"
=== "Python"
@ -134,7 +134,7 @@ Consultez les détails complets du mode `predict` sur la page [Prédire](https:/
Exportez un modèle YOLOv8n Pose dans un autre format tel que ONNX, CoreML, etc.
!!! exemple ""
!!! Example "Exemple"
=== "Python"

View file

@ -50,7 +50,7 @@ Les [modèles](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/
Entraînez YOLOv8n-seg sur le jeu de données COCO128-seg pendant 100 époques à la taille d'image 640. Pour une liste complète des arguments disponibles, consultez la page [Configuration](/../usage/cfg.md).
!!! exemple ""
!!! Example "Exemple"
=== "Python"
@ -87,7 +87,7 @@ Le format des données de segmentation YOLO peut être trouvé en détail dans l
Validez la précision du modèle YOLOv8n-seg entraîné sur le jeu de données COCO128-seg. Aucun argument n'est nécessaire car le `modèle`
conserve ses données de formation et ses arguments comme attributs du modèle.
!!! exemple ""
!!! Example "Exemple"
=== "Python"
@ -120,7 +120,7 @@ conserve ses données de formation et ses arguments comme attributs du modèle.
Utilisez un modèle YOLOv8n-seg entraîné pour effectuer des prédictions sur des images.
!!! exemple ""
!!! Example "Exemple"
=== "Python"
@ -147,7 +147,7 @@ Voir les détails complets du mode `predict` sur la page [Predict](https://docs.
Exportez un modèle YOLOv8n-seg vers un format différent comme ONNX, CoreML, etc.
!!! exemple ""
!!! Example "Exemple"
=== "Python"