Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)

Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com>
Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
Glenn Jocher 2023-11-18 21:51:47 +01:00 committed by GitHub
parent b6baae584c
commit 02bf8003a8
No known key found for this signature in database
GPG key ID: 4AEE18F83AFDEB23
337 changed files with 6584 additions and 777 deletions

View file

@ -8,7 +8,7 @@ keywords: 컴퓨터 비전, 데이터셋, Ultralytics, YOLO, 객체 탐지, 인
Ultralytics는 탐지, 인스턴스 세분화, 자세 추정, 분류 및 다중 객체 추적과 같은 컴퓨터 비전 작업을 촉진하기 위해 다양한 데이터셋을 지원합니다. 아래는 주요 Ultralytics 데이터셋 목록과 각 컴퓨터 비전 작업의 요약, 그리고 해당 데이터셋입니다.
!!! note
!!! Note
🚧 다국어 문서 작업은 현재 진행 중이며, 우리는 이를 개선하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏
@ -104,7 +104,7 @@ Ultralytics는 탐지, 인스턴스 세분화, 자세 추정, 분류 및 다중
### 데이터셋 최적화 및 압축 예제 코드
!!! example "데이터셋 최적화 및 압축"
!!! Example "데이터셋 최적화 및 압축"
=== "Python"

View file

@ -38,7 +38,7 @@ Ultralytics의 최신 버전인 [YOLOv8](https://github.com/ultralytics/ultralyt
YOLOv8 문서를 탐구하여, 그 기능과 능력을 이해하고 활용할 수 있도록 돕는 종합적인 자원입니다. 기계 학습 분야에서 경험이 많건, 새롭게 시작하는 이들이건, 이 허브는 YOLOv8의 잠재력을 극대화하기 위해 설계되었습니다.
!!! note
!!! Note
🚧 다국어 문서는 현재 제작 중이며, 이를 개선하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏

View file

@ -8,7 +8,7 @@ keywords: Ultralytics, 문서화, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DE
Ultralytics 모델 문서에 오신 것을 환영합니다! 저희는 [객체 검출](../tasks/detect.md), [인스턴스 분할](../tasks/segment.md), [이미지 분류](../tasks/classify.md), [자세 추정](../tasks/pose.md), [다중 객체 추적](../modes/track.md) 등 특정 작업에 맞춤화된 다양한 모델을 지원합니다. Ultralytics에 모델 아키텍처를 기여하고자 한다면, 저희의 [기여 가이드](../../help/contributing.md)를 확인해 주세요.
!!! note
!!! Note
🚧 현재 다국어 문서화 작업이 진행 중이며 문서를 개선하기 위해 열심히 작업하고 있습니다. 기다려 주셔서 감사합니다! 🙏
@ -41,7 +41,7 @@ Ultralytics 모델 문서에 오신 것을 환영합니다! 저희는 [객체
## 시작하기: 사용 예시
!!! example ""
!!! Example "예제"
=== "Python"

View file

@ -32,7 +32,7 @@ keywords: Ultralytics, YOLOv8, 벤치마킹, 속도 프로파일링, 정확도
- **OpenVINO:** 인텔 하드웨어 최적화를 위함
- **CoreML, TensorFlow SavedModel, 그 외:** 다양한 배포 요구 사항을 위함.
!!! "팁"
!!! Tip "팁"
* CPU 속도 향상을 위해 ONNX 또는 OpenVINO로 내보내기.
* GPU 속도 향상을 위해 TensorRT로 내보내기.
@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, 벤치마킹, 속도 프로파일링, 정확도
YOLOv8n 벤치마킹을 ONNX, TensorRT 등 모든 지원되는 내보내기 형식에 대해 실행합니다. 완벽한 내보내기 인수 목록을 보려면 아래의 인수 섹션을 참조하세요.
!!! 예제 ""
!!! Example "예제"
=== "파이썬"

View file

@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 모델 내보내기, ONNX, TensorRT, CoreML
- **최적화된 추론:** 내보낸 모델들은 더 빠른 추론 시간을 위해 최적화되어 있습니다.
- **튜토리얼 비디오:** 원활한 내보내기 경험을 위한 심도 있는 가이드 및 튜토리얼.
!!! "팁"
!!! Tip "팁"
* CPU 속도 향상을 위해 ONNX 또는 OpenVINO로 내보내세요.
* GPU 속도 향상을 위해 TensorRT로 내보내세요.

View file

@ -92,7 +92,7 @@ Ultralytics YOLO 모델은 Python `Results` 객체의 리스트를 반환하거
YOLOv8은 아래 표에 표시된 바와 같이 추론을 위한 다양한 유형의 입력 소스를 처리할 수 있습니다. 소스에는 정적 이미지, 비디오 스트림, 다양한 데이터 형식이 포함됩니다. 표는 또한 각 소스를 'stream=True' ✅와 함께 스트리밍 모드에서 사용할 수 있는지 여부를 나타냅니다. 스트리밍 모드는 비디오나 라이브 스트림을 처리할 때 결과를 메모리에 모두 로드하는 대신 결과의 생성자를 만들어 유용하게 사용됩니다.
!!! "팁"
!!! Tip "팁"
긴 비디오나 큰 데이터 세트를 처리할 때 'stream=True'를 사용하여 효율적으로 메모리를 관리합니다. 'stream=False'일 때는 모든 프레임 또는 데이터 포인트에 대한 결과가 메모리에 저장되어, 입력이 크면 메모리 부족 오류를 빠르게 유발할 수 있습니다. 반면에, 'stream=True'는 생성자를 사용하여 현재 프레임 또는 데이터 포인트의 결과만 메모리에 유지하여 메모리 소비를 크게 줄이고 메모리 부족 문제를 방지합니다.

View file

@ -41,7 +41,7 @@ YOLOv8의 훈련 모드를 선택하는 데는 몇 가지 설득력 있는 이
- **하이퍼파라미터 구성:** YAML 구성 파일이나 CLI 인수를 통해 하이퍼파라미터 수정 가능.
- **시각화 및 모니터링:** 훈련 지표의 실시간 추적 및 학습 과정의 시각화로 더 나은 인사이트 제공.
!!! "팁"
!!! Tip "팁"
* YOLOv8 데이터셋들은 첫 사용시 자동으로 다운로드됩니다, 예: `yolo train data=coco.yaml`
@ -49,7 +49,7 @@ YOLOv8의 훈련 모드를 선택하는 데는 몇 가지 설득력 있는 이
COCO128 데이터셋에서 YOLOv8n을 이미지 크기 640으로 100 에포크 동안 훈련합니다. 훈련 장치는 `device` 인수를 사용하여 지정할 수 있습니다. 인수를 전달하지 않으면 사용 가능한 경우 GPU `device=0`이, 아니면 `device=cpu`가 사용됩니다. 전체 훈련 인수 목록은 아래 Arguments 섹션을 참조하세요.
!!! 예제 "단일 GPU 및 CPU 훈련 예제"
!!! Example "단일 GPU 및 CPU 훈련 예제"
장치는 자동으로 결정됩니다. GPU가 사용 가능하면 사용되며, 그렇지 않으면 CPU에서 훈련이 시작됩니다.
@ -84,7 +84,7 @@ COCO128 데이터셋에서 YOLOv8n을 이미지 크기 640으로 100 에포크
다중 GPU 훈련을 통해 사용 가능한 하드웨어 리소스를 더 효율적으로 활용할 수 있습니다. 이 기능은 Python API와 명령행 인터페이스 모두를 통해 사용할 수 있습니다. 다중 GPU 훈련을 활성화하려면 사용하려는 GPU 장치 ID를 지정하세요.
!!! 예제 "다중 GPU 훈련 예제"
!!! Example "다중 GPU 훈련 예제"
2개의 GPU, CUDA 장치 0과 1로 훈련하려면 다음 명령을 사용하세요. 필요에 따라 추가 GPU로 확장하세요.
@ -113,7 +113,7 @@ Ultralytics YOLO 모델에 통합된 Apple M1 및 M2 칩들에 대한 지원을
Apple M1 및 M2 칩에서 훈련을 활성화하려면, 훈련 과정을 시작할 때 장치로 'mps'를 지정해야 합니다. 아래는 Python 및 명령행 인터페이스를 통해 이를 수행할 수 있는 예제입니다:
!!! 예제 "MPS 훈련 예제"
!!! Example "MPS 훈련 예제"
=== "Python"

View file

@ -30,7 +30,7 @@ YOLOv8의 Val 모드가 제공하는 주목할 만한 기능들은 다음과 같
- **CLI 및 Python API:** 검증을 위해 명령 줄 인터페이스 또는 Python API 중에서 선택할 수 있습니다.
- **데이터 호환성:** 훈련 단계에서 사용된 데이터셋과 사용자 정의 데이터셋 모두와 원활하게 작동합니다.
!!! tip "팁"
!!! Tip "팁"
* YOLOv8 모델은 훈련 설정을 자동으로 기억하므로 `yolo val model=yolov8n.pt``model('yolov8n.pt').val()`만으로 같은 이미지 크기와 원본 데이터셋에서 쉽게 검증할 수 있습니다.
@ -38,7 +38,7 @@ YOLOv8의 Val 모드가 제공하는 주목할 만한 기능들은 다음과 같
COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니다. `모델`은 훈련 `데이터`와 인자를 모델 속성으로 유지하므로 인자가 필요 없습니다. 전체 내보내기 인자 목록은 아래의 인자 섹션을 참고하세요.
!!! example ""
!!! Example "예제"
=== "Python"

View file

@ -8,7 +8,7 @@ keywords: Ultralytics 설치, pip를 이용한 Ultralytics 설치, Docker를 이
Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공합니다. `ultralytics` pip 패키지를 이용해 가장 안정적인 최신 버전의 YOLOv8을 설치하거나 [Ultralytics GitHub 저장소](https://github.com/ultralytics/ultralytics)를 복제하여 가장 최신 버전을 받아볼 수 있습니다. Docker를 이용하면 패키지를 로컬에 설치하지 않고 격리된 컨테이너에서 실행할 수 있습니다.
!!! example "설치하기"
!!! Example "설치하기"
=== "Pip 설치하기 (권장)"
pip을 사용하여 `ultralytics` 패키지를 설치하거나, `pip install -U ultralytics`를 실행하여 기존 설치를 업데이트하세요. Python Package Index(PyPI)에서 `ultralytics` 패키지에 대한 자세한 내용을 확인하세요: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/).
@ -39,7 +39,7 @@ Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공
conda install -c conda-forge ultralytics
```
!!! note
!!! Note
CUDA 환경에서 설치하는 경우 일반적으로 `ultralytics`, `pytorch``pytorch-cuda`를 동일한 명령어로 설치하여 Conda 패키지 관리자가 충돌을 해결하도록 하거나, 필요한 경우 CPU 전용 `pytorch` 패키지를 덮어쓸 수 있도록 `pytorch-cuda`를 마지막에 설치하는 것이 좋습니다.
```bash
@ -130,7 +130,7 @@ Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공
<strong>Watch:</strong> Ultralytics YOLO Quick Start Guide
</p>
!!! tip "팁"
!!! Tip "팁"
PyTorch 설치 요구사항은 운영 체제와 CUDA 요구사항에 따라 다르므로 [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)의 지침에 따라 PyTorch를 먼저 설치하는 것이 권장됩니다.
@ -142,7 +142,7 @@ Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공
Ultralytics 명령줄 인터페이스(CLI)는 Python 환경이 필요 없이 단일 라인 명령어를 통해 작업을 쉽게 실행할 수 있도록 합니다. CLI는 커스터마이징이나 Python 코드가 필요 없습니다. `yolo` 명령어를 이용해 터미널에서 모든 작업을 실행할 수 있습니다. 명령줄에서 YOLOv8을 사용하는 방법에 대해 더 알아보려면 [CLI 가이드](/../usage/cli.md)를 참고하세요.
!!! example
!!! Example
=== "문법"
@ -196,7 +196,7 @@ Ultralytics 명령줄 인터페이스(CLI)는 Python 환경이 필요 없이 단
yolo cfg
```
!!! warning "주의"
!!! Warning "주의"
모든 인수는 `arg=val`쌍으로 전달되어야 하며, 각 쌍 사이에는 공백으로 구분해야 합니다. 인수 접두사로 `--`를 사용하거나 인수 사이에 쉼표 `,`를 사용해서는 안 됩니다.

View file

@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, 이미지 분류, 사전 훈련된 모델, YOLOv8
이미지 분류기의 출력은 단일 클래스 라벨과 신뢰도 점수입니다. 이미지 분류는 클래스의 이미지만 알고 싶고 해당 클래스의 객체가 어디에 위치하고 있는지 또는 그 정확한 형태가 무엇인지 알 필요가 없을 때 유용합니다.
!!! "팁"
!!! Tip "팁"
YOLOv8 분류 모델은 `-cls` 접미사를 사용합니다. 예: `yolov8n-cls.pt`이며, [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)에서 사전 훈련되었습니다.
@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, 이미지 분류, 사전 훈련된 모델, YOLOv8
YOLOv8n-cls 모델을 MNIST160 데이터셋에서 100 에포크 동안 학습시키고 이미지 크기는 64로 설정합니다. 가능한 모든 인자는 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다.
!!! 예제 ""
!!! Example "예제"
=== "Python"
@ -76,7 +76,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl
학습된 YOLOv8n-cls 모델의 정확도를 MNIST160 데이터셋에서 검증합니다. `model`은 모델 속성으로 훈련 시 `data` 및 인자를 유지하므로 추가 인자를 전달할 필요가 없습니다.
!!! 예제 ""
!!! Example "예제"
=== "Python"
@ -103,7 +103,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl
학습된 YOLOv8n-cls 모델을 사용하여 이미지에 대한 예측을 실행합니다.
!!! 예제 ""
!!! Example "예제"
=== "Python"
@ -130,7 +130,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl
YOLOv8n-cls 모델을 ONNX, CoreML 등과 같은 다른 형식으로 내보냅니다.
!!! 예제 ""
!!! Example "예제"
=== "Python"

View file

@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, 객체 감지, 사전 훈련된 모델, 훈련,
<strong>시청하기:</strong> 사전 훈련된 Ultralytics YOLOv8 모델로 객체 감지하기.
</p>
!!! tip "팁"
!!! Tip "팁"
YOLOv8 Detect 모델들은 기본 YOLOv8 모델이며 예를 들어 `yolov8n.pt` 이 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에서 사전 훈련되었습니다.
@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, 객체 감지, 사전 훈련된 모델, 훈련,
COCO128 데이터셋에서 이미지 크기 640으로 YOLOv8n 모델을 100 에포크 동안 훈련합니다. 가능한 모든 인수에 대한 목록은 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다.
!!! example ""
!!! Example "예제"
=== "Python"
@ -86,7 +86,7 @@ YOLO 감지 데이터셋 형식은 [데이터셋 가이드](../../../datasets/de
COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니다. `model`은 훈련 시의 `data`와 인수를 모델 속성으로 보존하기 때문에 인수를 전달할 필요가 없습니다.
!!! example ""
!!! Example "예제"
=== "Python"
@ -115,7 +115,7 @@ COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니
훈련된 YOLOv8n 모델을 사용하여 이미지에 대한 예측을 수행합니다.
!!! example ""
!!! Example "예제"
=== "Python"
@ -142,7 +142,7 @@ COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니
YOLOv8n 모델을 ONNX, CoreML 등과 같은 다른 형식으로 내보냅니다.
!!! example ""
!!! Example "예제"
=== "Python"

View file

@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, 탐지, 세분화, 분류, 자세 추정, AI 프
YOLOv8는 여러 컴퓨터 비전 **작업**을 지원하는 AI 프레임워크입니다. 이 프레임워크는 [탐지](detect.md), [세분화](segment.md), [분류](classify.md), 그리고 [자세](pose.md) 추정을 수행하는 데 사용될 수 있습니다. 각각의 작업은 서로 다른 목적과 사용 사례를 가지고 있습니다.
!!! note
!!! Note
🚧 다국어 문서화 작업이 진행 중에 있으며, 더 나은 문서를 제공하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏

View file

@ -23,7 +23,7 @@ keywords: Ultralytics, YOLO, YOLOv8, 포즈 추정, 키포인트 검출, 객체
<strong>시청하기:</strong> Ultralytics YOLOv8을 이용한 포즈 추정.
</p>
!!! tip "팁"
!!! Tip "팁"
YOLOv8 _pose_ 모델은 `-pose` 접미사가 붙습니다. 예: `yolov8n-pose.pt`. 이 모델들은 [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) 데이터셋으로 학습되었으며 포즈 추정 작업에 적합합니다.
@ -51,7 +51,7 @@ keywords: Ultralytics, YOLO, YOLOv8, 포즈 추정, 키포인트 검출, 객체
COCO128-pose 데이터셋에서 YOLOv8-pose 모델 학습하기.
!!! example ""
!!! Example "예제"
=== "Python"
@ -87,7 +87,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가
학습된 YOLOv8n-pose 모델의 정확도를 COCO128-pose 데이터셋에서 검증하기. 모델은 학습 `data` 및 인수를 모델 속성으로 유지하기 때문에 인수를 전달할 필요가 없습니다.
!!! example ""
!!! Example "예제"
=== "Python"
@ -116,7 +116,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가
학습된 YOLOv8n-pose 모델을 사용하여 이미지에 대한 예측 수행하기.
!!! example ""
!!! Example "예제"
=== "Python"
@ -143,7 +143,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가
YOLOv8n 포즈 모델을 ONNX, CoreML 등 다른 형식으로 내보내기.
!!! example ""
!!! Example "예제"
=== "Python"

View file

@ -23,7 +23,7 @@ keywords: yolov8, 인스턴스 세그멘테이션, Ultralytics, COCO 데이터
<strong>시청하기:</strong> Python에서 사전 훈련된 Ultralytics YOLOv8 모델로 세그멘테이션 실행.
</p>
!!! tip "팁"
!!! Tip "팁"
YOLOv8 Segment 모델은 '-seg' 접미사를 사용하며 즉, `yolov8n-seg.pt`와 같이 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에 사전 훈련되어 있습니다.
@ -50,7 +50,7 @@ keywords: yolov8, 인스턴스 세그멘테이션, Ultralytics, COCO 데이터
COCO128-seg 데이터셋에서 이미지 크기 640으로 YOLOv8n-seg을 100 에포크 동안 훈련합니다. 가능한 모든 인자 목록은 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다.
!!! example ""
!!! Example "예제"
=== "파이썬"
@ -86,7 +86,7 @@ YOLO 세그멘테이션 데이터셋 형식은 [데이터셋 가이드](../../..
COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검증합니다. 모델은 훈련할 때의 `data`와 인자를 모델 속성으로 기억하기 때문에 별도의 인자를 전달할 필요가 없습니다.
!!! example ""
!!! Example "예제"
=== "파이썬"
@ -119,7 +119,7 @@ COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검
훈련된 YOLOv8n-seg 모델을 사용하여 이미지에 대한 예측을 실행합니다.
!!! example ""
!!! Example "예제"
=== "파이썬"
@ -146,7 +146,7 @@ COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검
ONNX, CoreML 등과 같은 다른 형식으로 YOLOv8n-seg 모델을 수출합니다.
!!! example ""
!!! Example "예제"
=== "파이썬"