Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)

Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com>
Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
Glenn Jocher 2023-11-18 21:51:47 +01:00 committed by GitHub
parent b6baae584c
commit 02bf8003a8
No known key found for this signature in database
GPG key ID: 4AEE18F83AFDEB23
337 changed files with 6584 additions and 777 deletions

View file

@ -12,7 +12,7 @@ Bildklassifizierung ist die einfachste der drei Aufgaben und besteht darin, ein
Die Ausgabe eines Bildklassifizierers ist ein einzelnes Klassenlabel und eine Vertrauenspunktzahl. Bildklassifizierung ist nützlich, wenn Sie nur wissen müssen, zu welcher Klasse ein Bild gehört, und nicht wissen müssen, wo sich Objekte dieser Klasse befinden oder wie ihre genaue Form ist.
!!! tip "Tipp"
!!! Tip "Tipp"
YOLOv8 Classify-Modelle verwenden den Suffix `-cls`, z.B. `yolov8n-cls.pt` und sind auf [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) vortrainiert.
@ -39,7 +39,7 @@ Hier werden vortrainierte YOLOv8 Classify-Modelle gezeigt. Detect-, Segment- und
Trainieren Sie das YOLOv8n-cls-Modell auf dem MNIST160-Datensatz für 100 Epochen bei Bildgröße 64. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite [Konfiguration](/../usage/cfg.md).
!!! example ""
!!! Example "Beispiel"
=== "Python"
@ -76,7 +76,7 @@ Das Datenformat für YOLO-Klassifizierungsdatensätze finden Sie im Detail im [D
Validieren Sie die Genauigkeit des trainierten YOLOv8n-cls-Modells auf dem MNIST160-Datensatz. Kein Argument muss übergeben werden, da das `modell` seine Trainings`daten` und Argumente als Modellattribute behält.
!!! example ""
!!! Example "Beispiel"
=== "Python"
@ -103,7 +103,7 @@ Validieren Sie die Genauigkeit des trainierten YOLOv8n-cls-Modells auf dem MNIST
Verwenden Sie ein trainiertes YOLOv8n-cls-Modell, um Vorhersagen auf Bildern durchzuführen.
!!! example ""
!!! Example "Beispiel"
=== "Python"
@ -130,7 +130,7 @@ Vollständige Details zum `predict`-Modus finden Sie auf der Seite [Vorhersage](
Exportieren Sie ein YOLOv8n-cls-Modell in ein anderes Format wie ONNX, CoreML usw.
!!! example ""
!!! Example "Beispiel"
=== "Python"

View file

@ -23,7 +23,7 @@ Die Ausgabe eines Objekterkenners ist eine Menge von Begrenzungsrahmen, die die
<strong>Sehen Sie:</strong> Objekterkennung mit vortrainiertem Ultralytics YOLOv8 Modell.
</p>
!!! tip "Tipp"
!!! Tip "Tipp"
YOLOv8 Detect Modelle sind die Standard YOLOv8 Modelle, zum Beispiel `yolov8n.pt`, und sind vortrainiert auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz.
@ -50,7 +50,7 @@ Hier werden die vortrainierten YOLOv8 Detect Modelle gezeigt. Detect, Segment un
YOLOv8n auf dem COCO128-Datensatz für 100 Epochen bei Bildgröße 640 trainieren. Für eine vollständige Liste verfügbarer Argumente siehe die [Konfigurationsseite](/../usage/cfg.md).
!!! example ""
!!! Example "Beispiel"
=== "Python"
@ -86,7 +86,7 @@ Das Datenformat für YOLO-Erkennungsdatensätze finden Sie detailliert im [Datas
Genauigkeit des trainierten YOLOv8n-Modells auf dem COCO128-Datensatz validieren. Es müssen keine Argumente übergeben werden, da das `modell` seine Trainingsdaten und Argumente als Modellattribute beibehält.
!!! example ""
!!! Example "Beispiel"
=== "Python"
@ -115,7 +115,7 @@ Genauigkeit des trainierten YOLOv8n-Modells auf dem COCO128-Datensatz validieren
Ein trainiertes YOLOv8n-Modell verwenden, um Vorhersagen auf Bildern durchzuführen.
!!! example ""
!!! Example "Beispiel"
=== "Python"
@ -142,7 +142,7 @@ Volle Details über den `predict`-Modus finden Sie auf der [Predict-Seite](https
Ein YOLOv8n-Modell in ein anderes Format wie ONNX, CoreML usw. exportieren.
!!! example ""
!!! Example "Beispiel"
=== "Python"

View file

@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, Erkennung, Segmentierung, Klassifizierung, Pose-S
YOLOv8 ist ein KI-Framework, das mehrere Aufgaben im Bereich der Computer Vision **unterstützt**. Das Framework kann für die [Erkennung](detect.md), [Segmentierung](segment.md), [Klassifizierung](classify.md) und die [Pose](pose.md)-Schätzung verwendet werden. Jede dieser Aufgaben hat ein unterschiedliches Ziel und Anwendungsgebiete.
!!! Hinweis
!!! Note
🚧 Unsere mehrsprachigen Dokumentation befindet sich derzeit im Aufbau und wir arbeiten hart daran, sie zu verbessern. Danke für Ihre Geduld! 🙏

View file

@ -23,7 +23,7 @@ Das Ergebnis eines Pose-Schätzungsmodells ist eine Gruppe von Punkten, die die
<strong>Ansehen:</strong> Pose-Schätzung mit Ultralytics YOLOv8.
</p>
!!! Tipp "Tipp"
!!! Tip "Tipp"
YOLOv8 _pose_-Modelle verwenden den Suffix `-pose`, z. B. `yolov8n-pose.pt`. Diese Modelle sind auf dem [COCO-Schlüsselpunkte](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml)-Datensatz trainiert und für eine Vielzahl von Pose-Schätzungsaufgaben geeignet.
@ -51,7 +51,7 @@ Hier werden vortrainierte YOLOv8 Pose-Modelle gezeigt. Erkennungs-, Segmentierun
Trainieren Sie ein YOLOv8-Pose-Modell auf dem COCO128-Pose-Datensatz.
!!! Beispiel ""
!!! Example "Beispiel"
=== "Python"
@ -87,7 +87,7 @@ Das YOLO-Pose-Datensatzformat finden Sie detailliert im [Datensatz-Leitfaden](..
Die Genauigkeit des trainierten YOLOv8n-Pose-Modells auf dem COCO128-Pose-Datensatz validieren. Es müssen keine Argumente übergeben werden, da das `Modell` seine Trainings`daten` und Argumente als Modellattribute beibehält.
!!! Beispiel ""
!!! Example "Beispiel"
=== "Python"
@ -116,7 +116,7 @@ Die Genauigkeit des trainierten YOLOv8n-Pose-Modells auf dem COCO128-Pose-Datens
Ein trainiertes YOLOv8n-Pose-Modell verwenden, um Vorhersagen auf Bildern zu machen.
!!! Beispiel ""
!!! Example "Beispiel"
=== "Python"
@ -143,7 +143,7 @@ Vollständige `predict`-Modusdetails finden Sie auf der [Vorhersage](https://doc
Ein YOLOv8n-Pose-Modell in ein anderes Format wie ONNX, CoreML usw. exportieren.
!!! Beispiel ""
!!! Example "Beispiel"
=== "Python"

View file

@ -23,7 +23,7 @@ Das Ergebnis eines Instanzsegmentierungsmodells ist eine Reihe von Masken oder K
<strong>Schauen Sie:</strong> Führen Sie Segmentierung mit dem vortrainierten Ultralytics YOLOv8 Modell in Python aus.
</p>
!!! Tipp "Tipp"
!!! Tip "Tipp"
YOLOv8 Segment-Modelle verwenden das Suffix `-seg`, d.h. `yolov8n-seg.pt` und sind auf dem [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)-Datensatz vortrainiert.
@ -50,7 +50,7 @@ Hier werden vortrainierte YOLOv8 Segment-Modelle gezeigt. Detect-, Segment- und
Trainieren Sie YOLOv8n-seg auf dem COCO128-seg-Datensatz für 100 Epochen mit einer Bildgröße von 640. Eine vollständige Liste der verfügbaren Argumente finden Sie auf der Seite [Konfiguration](/../usage/cfg.md).
!!! Beispiel ""
!!! Example "Beispiel"
=== "Python"
@ -86,7 +86,7 @@ Das YOLO Segmentierungsdatenformat finden Sie detailliert im [Dataset Guide](../
Validieren Sie die Genauigkeit des trainierten YOLOv8n-seg-Modells auf dem COCO128-seg-Datensatz. Es müssen keine Argumente übergeben werden, da das `Modell` seine Trainingsdaten und -argumente als Modellattribute behält.
!!! Beispiel ""
!!! Example "Beispiel"
=== "Python"
@ -119,7 +119,7 @@ Validieren Sie die Genauigkeit des trainierten YOLOv8n-seg-Modells auf dem COCO1
Verwenden Sie ein trainiertes YOLOv8n-seg-Modell für Vorhersagen auf Bildern.
!!! Beispiel ""
!!! Example "Beispiel"
=== "Python"
@ -146,7 +146,7 @@ Die vollständigen Details zum `predict`-Modus finden Sie auf der Seite [Predict
Exportieren Sie ein YOLOv8n-seg-Modell in ein anderes Format wie ONNX, CoreML usw.
!!! Beispiel ""
!!! Example "Beispiel"
=== "Python"