Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)

Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com>
Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
Glenn Jocher 2023-11-18 21:51:47 +01:00 committed by GitHub
parent b6baae584c
commit 02bf8003a8
No known key found for this signature in database
GPG key ID: 4AEE18F83AFDEB23
337 changed files with 6584 additions and 777 deletions

View file

@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, 이미지 분류, 사전 훈련된 모델, YOLOv8
이미지 분류기의 출력은 단일 클래스 라벨과 신뢰도 점수입니다. 이미지 분류는 클래스의 이미지만 알고 싶고 해당 클래스의 객체가 어디에 위치하고 있는지 또는 그 정확한 형태가 무엇인지 알 필요가 없을 때 유용합니다.
!!! "팁"
!!! Tip "팁"
YOLOv8 분류 모델은 `-cls` 접미사를 사용합니다. 예: `yolov8n-cls.pt`이며, [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)에서 사전 훈련되었습니다.
@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, 이미지 분류, 사전 훈련된 모델, YOLOv8
YOLOv8n-cls 모델을 MNIST160 데이터셋에서 100 에포크 동안 학습시키고 이미지 크기는 64로 설정합니다. 가능한 모든 인자는 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다.
!!! 예제 ""
!!! Example "예제"
=== "Python"
@ -76,7 +76,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl
학습된 YOLOv8n-cls 모델의 정확도를 MNIST160 데이터셋에서 검증합니다. `model`은 모델 속성으로 훈련 시 `data` 및 인자를 유지하므로 추가 인자를 전달할 필요가 없습니다.
!!! 예제 ""
!!! Example "예제"
=== "Python"
@ -103,7 +103,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl
학습된 YOLOv8n-cls 모델을 사용하여 이미지에 대한 예측을 실행합니다.
!!! 예제 ""
!!! Example "예제"
=== "Python"
@ -130,7 +130,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl
YOLOv8n-cls 모델을 ONNX, CoreML 등과 같은 다른 형식으로 내보냅니다.
!!! 예제 ""
!!! Example "예제"
=== "Python"

View file

@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, 객체 감지, 사전 훈련된 모델, 훈련,
<strong>시청하기:</strong> 사전 훈련된 Ultralytics YOLOv8 모델로 객체 감지하기.
</p>
!!! tip "팁"
!!! Tip "팁"
YOLOv8 Detect 모델들은 기본 YOLOv8 모델이며 예를 들어 `yolov8n.pt` 이 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에서 사전 훈련되었습니다.
@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, 객체 감지, 사전 훈련된 모델, 훈련,
COCO128 데이터셋에서 이미지 크기 640으로 YOLOv8n 모델을 100 에포크 동안 훈련합니다. 가능한 모든 인수에 대한 목록은 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다.
!!! example ""
!!! Example "예제"
=== "Python"
@ -86,7 +86,7 @@ YOLO 감지 데이터셋 형식은 [데이터셋 가이드](../../../datasets/de
COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니다. `model`은 훈련 시의 `data`와 인수를 모델 속성으로 보존하기 때문에 인수를 전달할 필요가 없습니다.
!!! example ""
!!! Example "예제"
=== "Python"
@ -115,7 +115,7 @@ COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니
훈련된 YOLOv8n 모델을 사용하여 이미지에 대한 예측을 수행합니다.
!!! example ""
!!! Example "예제"
=== "Python"
@ -142,7 +142,7 @@ COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니
YOLOv8n 모델을 ONNX, CoreML 등과 같은 다른 형식으로 내보냅니다.
!!! example ""
!!! Example "예제"
=== "Python"

View file

@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, 탐지, 세분화, 분류, 자세 추정, AI 프
YOLOv8는 여러 컴퓨터 비전 **작업**을 지원하는 AI 프레임워크입니다. 이 프레임워크는 [탐지](detect.md), [세분화](segment.md), [분류](classify.md), 그리고 [자세](pose.md) 추정을 수행하는 데 사용될 수 있습니다. 각각의 작업은 서로 다른 목적과 사용 사례를 가지고 있습니다.
!!! note
!!! Note
🚧 다국어 문서화 작업이 진행 중에 있으며, 더 나은 문서를 제공하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏

View file

@ -23,7 +23,7 @@ keywords: Ultralytics, YOLO, YOLOv8, 포즈 추정, 키포인트 검출, 객체
<strong>시청하기:</strong> Ultralytics YOLOv8을 이용한 포즈 추정.
</p>
!!! tip "팁"
!!! Tip "팁"
YOLOv8 _pose_ 모델은 `-pose` 접미사가 붙습니다. 예: `yolov8n-pose.pt`. 이 모델들은 [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) 데이터셋으로 학습되었으며 포즈 추정 작업에 적합합니다.
@ -51,7 +51,7 @@ keywords: Ultralytics, YOLO, YOLOv8, 포즈 추정, 키포인트 검출, 객체
COCO128-pose 데이터셋에서 YOLOv8-pose 모델 학습하기.
!!! example ""
!!! Example "예제"
=== "Python"
@ -87,7 +87,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가
학습된 YOLOv8n-pose 모델의 정확도를 COCO128-pose 데이터셋에서 검증하기. 모델은 학습 `data` 및 인수를 모델 속성으로 유지하기 때문에 인수를 전달할 필요가 없습니다.
!!! example ""
!!! Example "예제"
=== "Python"
@ -116,7 +116,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가
학습된 YOLOv8n-pose 모델을 사용하여 이미지에 대한 예측 수행하기.
!!! example ""
!!! Example "예제"
=== "Python"
@ -143,7 +143,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가
YOLOv8n 포즈 모델을 ONNX, CoreML 등 다른 형식으로 내보내기.
!!! example ""
!!! Example "예제"
=== "Python"

View file

@ -23,7 +23,7 @@ keywords: yolov8, 인스턴스 세그멘테이션, Ultralytics, COCO 데이터
<strong>시청하기:</strong> Python에서 사전 훈련된 Ultralytics YOLOv8 모델로 세그멘테이션 실행.
</p>
!!! tip "팁"
!!! Tip "팁"
YOLOv8 Segment 모델은 '-seg' 접미사를 사용하며 즉, `yolov8n-seg.pt`와 같이 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에 사전 훈련되어 있습니다.
@ -50,7 +50,7 @@ keywords: yolov8, 인스턴스 세그멘테이션, Ultralytics, COCO 데이터
COCO128-seg 데이터셋에서 이미지 크기 640으로 YOLOv8n-seg을 100 에포크 동안 훈련합니다. 가능한 모든 인자 목록은 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다.
!!! example ""
!!! Example "예제"
=== "파이썬"
@ -86,7 +86,7 @@ YOLO 세그멘테이션 데이터셋 형식은 [데이터셋 가이드](../../..
COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검증합니다. 모델은 훈련할 때의 `data`와 인자를 모델 속성으로 기억하기 때문에 별도의 인자를 전달할 필요가 없습니다.
!!! example ""
!!! Example "예제"
=== "파이썬"
@ -119,7 +119,7 @@ COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검
훈련된 YOLOv8n-seg 모델을 사용하여 이미지에 대한 예측을 실행합니다.
!!! example ""
!!! Example "예제"
=== "파이썬"
@ -146,7 +146,7 @@ COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검
ONNX, CoreML 등과 같은 다른 형식으로 YOLOv8n-seg 모델을 수출합니다.
!!! example ""
!!! Example "예제"
=== "파이썬"