Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)
Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
parent
b6baae584c
commit
02bf8003a8
337 changed files with 6584 additions and 777 deletions
|
|
@ -8,7 +8,7 @@ keywords: 컴퓨터 비전, 데이터셋, Ultralytics, YOLO, 객체 탐지, 인
|
|||
|
||||
Ultralytics는 탐지, 인스턴스 세분화, 자세 추정, 분류 및 다중 객체 추적과 같은 컴퓨터 비전 작업을 촉진하기 위해 다양한 데이터셋을 지원합니다. 아래는 주요 Ultralytics 데이터셋 목록과 각 컴퓨터 비전 작업의 요약, 그리고 해당 데이터셋입니다.
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 다국어 문서 작업은 현재 진행 중이며, 우리는 이를 개선하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏
|
||||
|
||||
|
|
@ -104,7 +104,7 @@ Ultralytics는 탐지, 인스턴스 세분화, 자세 추정, 분류 및 다중
|
|||
|
||||
### 데이터셋 최적화 및 압축 예제 코드
|
||||
|
||||
!!! example "데이터셋 최적화 및 압축"
|
||||
!!! Example "데이터셋 최적화 및 압축"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -38,7 +38,7 @@ Ultralytics의 최신 버전인 [YOLOv8](https://github.com/ultralytics/ultralyt
|
|||
|
||||
YOLOv8 문서를 탐구하여, 그 기능과 능력을 이해하고 활용할 수 있도록 돕는 종합적인 자원입니다. 기계 학습 분야에서 경험이 많건, 새롭게 시작하는 이들이건, 이 허브는 YOLOv8의 잠재력을 극대화하기 위해 설계되었습니다.
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 다국어 문서는 현재 제작 중이며, 이를 개선하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏
|
||||
|
||||
|
|
|
|||
|
|
@ -8,7 +8,7 @@ keywords: Ultralytics, 문서화, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DE
|
|||
|
||||
Ultralytics 모델 문서에 오신 것을 환영합니다! 저희는 [객체 검출](../tasks/detect.md), [인스턴스 분할](../tasks/segment.md), [이미지 분류](../tasks/classify.md), [자세 추정](../tasks/pose.md), [다중 객체 추적](../modes/track.md) 등 특정 작업에 맞춤화된 다양한 모델을 지원합니다. Ultralytics에 모델 아키텍처를 기여하고자 한다면, 저희의 [기여 가이드](../../help/contributing.md)를 확인해 주세요.
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 현재 다국어 문서화 작업이 진행 중이며 문서를 개선하기 위해 열심히 작업하고 있습니다. 기다려 주셔서 감사합니다! 🙏
|
||||
|
||||
|
|
@ -41,7 +41,7 @@ Ultralytics 모델 문서에 오신 것을 환영합니다! 저희는 [객체
|
|||
|
||||
## 시작하기: 사용 예시
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -32,7 +32,7 @@ keywords: Ultralytics, YOLOv8, 벤치마킹, 속도 프로파일링, 정확도
|
|||
- **OpenVINO:** 인텔 하드웨어 최적화를 위함
|
||||
- **CoreML, TensorFlow SavedModel, 그 외:** 다양한 배포 요구 사항을 위함.
|
||||
|
||||
!!! 팁 "팁"
|
||||
!!! Tip "팁"
|
||||
|
||||
* CPU 속도 향상을 위해 ONNX 또는 OpenVINO로 내보내기.
|
||||
* GPU 속도 향상을 위해 TensorRT로 내보내기.
|
||||
|
|
@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, 벤치마킹, 속도 프로파일링, 정확도
|
|||
|
||||
YOLOv8n 벤치마킹을 ONNX, TensorRT 등 모든 지원되는 내보내기 형식에 대해 실행합니다. 완벽한 내보내기 인수 목록을 보려면 아래의 인수 섹션을 참조하세요.
|
||||
|
||||
!!! 예제 ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "파이썬"
|
||||
|
||||
|
|
|
|||
|
|
@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, 모델 내보내기, ONNX, TensorRT, CoreML
|
|||
- **최적화된 추론:** 내보낸 모델들은 더 빠른 추론 시간을 위해 최적화되어 있습니다.
|
||||
- **튜토리얼 비디오:** 원활한 내보내기 경험을 위한 심도 있는 가이드 및 튜토리얼.
|
||||
|
||||
!!! 팁 "팁"
|
||||
!!! Tip "팁"
|
||||
|
||||
* CPU 속도 향상을 위해 ONNX 또는 OpenVINO로 내보내세요.
|
||||
* GPU 속도 향상을 위해 TensorRT로 내보내세요.
|
||||
|
|
|
|||
|
|
@ -92,7 +92,7 @@ Ultralytics YOLO 모델은 Python `Results` 객체의 리스트를 반환하거
|
|||
|
||||
YOLOv8은 아래 표에 표시된 바와 같이 추론을 위한 다양한 유형의 입력 소스를 처리할 수 있습니다. 소스에는 정적 이미지, 비디오 스트림, 다양한 데이터 형식이 포함됩니다. 표는 또한 각 소스를 'stream=True' ✅와 함께 스트리밍 모드에서 사용할 수 있는지 여부를 나타냅니다. 스트리밍 모드는 비디오나 라이브 스트림을 처리할 때 결과를 메모리에 모두 로드하는 대신 결과의 생성자를 만들어 유용하게 사용됩니다.
|
||||
|
||||
!!! 팁 "팁"
|
||||
!!! Tip "팁"
|
||||
|
||||
긴 비디오나 큰 데이터 세트를 처리할 때 'stream=True'를 사용하여 효율적으로 메모리를 관리합니다. 'stream=False'일 때는 모든 프레임 또는 데이터 포인트에 대한 결과가 메모리에 저장되어, 입력이 크면 메모리 부족 오류를 빠르게 유발할 수 있습니다. 반면에, 'stream=True'는 생성자를 사용하여 현재 프레임 또는 데이터 포인트의 결과만 메모리에 유지하여 메모리 소비를 크게 줄이고 메모리 부족 문제를 방지합니다.
|
||||
|
||||
|
|
|
|||
|
|
@ -41,7 +41,7 @@ YOLOv8의 훈련 모드를 선택하는 데는 몇 가지 설득력 있는 이
|
|||
- **하이퍼파라미터 구성:** YAML 구성 파일이나 CLI 인수를 통해 하이퍼파라미터 수정 가능.
|
||||
- **시각화 및 모니터링:** 훈련 지표의 실시간 추적 및 학습 과정의 시각화로 더 나은 인사이트 제공.
|
||||
|
||||
!!! 팁 "팁"
|
||||
!!! Tip "팁"
|
||||
|
||||
* YOLOv8 데이터셋들은 첫 사용시 자동으로 다운로드됩니다, 예: `yolo train data=coco.yaml`
|
||||
|
||||
|
|
@ -49,7 +49,7 @@ YOLOv8의 훈련 모드를 선택하는 데는 몇 가지 설득력 있는 이
|
|||
|
||||
COCO128 데이터셋에서 YOLOv8n을 이미지 크기 640으로 100 에포크 동안 훈련합니다. 훈련 장치는 `device` 인수를 사용하여 지정할 수 있습니다. 인수를 전달하지 않으면 사용 가능한 경우 GPU `device=0`이, 아니면 `device=cpu`가 사용됩니다. 전체 훈련 인수 목록은 아래 Arguments 섹션을 참조하세요.
|
||||
|
||||
!!! 예제 "단일 GPU 및 CPU 훈련 예제"
|
||||
!!! Example "단일 GPU 및 CPU 훈련 예제"
|
||||
|
||||
장치는 자동으로 결정됩니다. GPU가 사용 가능하면 사용되며, 그렇지 않으면 CPU에서 훈련이 시작됩니다.
|
||||
|
||||
|
|
@ -84,7 +84,7 @@ COCO128 데이터셋에서 YOLOv8n을 이미지 크기 640으로 100 에포크
|
|||
|
||||
다중 GPU 훈련을 통해 사용 가능한 하드웨어 리소스를 더 효율적으로 활용할 수 있습니다. 이 기능은 Python API와 명령행 인터페이스 모두를 통해 사용할 수 있습니다. 다중 GPU 훈련을 활성화하려면 사용하려는 GPU 장치 ID를 지정하세요.
|
||||
|
||||
!!! 예제 "다중 GPU 훈련 예제"
|
||||
!!! Example "다중 GPU 훈련 예제"
|
||||
|
||||
2개의 GPU, CUDA 장치 0과 1로 훈련하려면 다음 명령을 사용하세요. 필요에 따라 추가 GPU로 확장하세요.
|
||||
|
||||
|
|
@ -113,7 +113,7 @@ Ultralytics YOLO 모델에 통합된 Apple M1 및 M2 칩들에 대한 지원을
|
|||
|
||||
Apple M1 및 M2 칩에서 훈련을 활성화하려면, 훈련 과정을 시작할 때 장치로 'mps'를 지정해야 합니다. 아래는 Python 및 명령행 인터페이스를 통해 이를 수행할 수 있는 예제입니다:
|
||||
|
||||
!!! 예제 "MPS 훈련 예제"
|
||||
!!! Example "MPS 훈련 예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -30,7 +30,7 @@ YOLOv8의 Val 모드가 제공하는 주목할 만한 기능들은 다음과 같
|
|||
- **CLI 및 Python API:** 검증을 위해 명령 줄 인터페이스 또는 Python API 중에서 선택할 수 있습니다.
|
||||
- **데이터 호환성:** 훈련 단계에서 사용된 데이터셋과 사용자 정의 데이터셋 모두와 원활하게 작동합니다.
|
||||
|
||||
!!! tip "팁"
|
||||
!!! Tip "팁"
|
||||
|
||||
* YOLOv8 모델은 훈련 설정을 자동으로 기억하므로 `yolo val model=yolov8n.pt`나 `model('yolov8n.pt').val()`만으로 같은 이미지 크기와 원본 데이터셋에서 쉽게 검증할 수 있습니다.
|
||||
|
||||
|
|
@ -38,7 +38,7 @@ YOLOv8의 Val 모드가 제공하는 주목할 만한 기능들은 다음과 같
|
|||
|
||||
COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니다. `모델`은 훈련 `데이터`와 인자를 모델 속성으로 유지하므로 인자가 필요 없습니다. 전체 내보내기 인자 목록은 아래의 인자 섹션을 참고하세요.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -8,7 +8,7 @@ keywords: Ultralytics 설치, pip를 이용한 Ultralytics 설치, Docker를 이
|
|||
|
||||
Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공합니다. `ultralytics` pip 패키지를 이용해 가장 안정적인 최신 버전의 YOLOv8을 설치하거나 [Ultralytics GitHub 저장소](https://github.com/ultralytics/ultralytics)를 복제하여 가장 최신 버전을 받아볼 수 있습니다. Docker를 이용하면 패키지를 로컬에 설치하지 않고 격리된 컨테이너에서 실행할 수 있습니다.
|
||||
|
||||
!!! example "설치하기"
|
||||
!!! Example "설치하기"
|
||||
|
||||
=== "Pip 설치하기 (권장)"
|
||||
pip을 사용하여 `ultralytics` 패키지를 설치하거나, `pip install -U ultralytics`를 실행하여 기존 설치를 업데이트하세요. Python Package Index(PyPI)에서 `ultralytics` 패키지에 대한 자세한 내용을 확인하세요: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/).
|
||||
|
|
@ -39,7 +39,7 @@ Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공
|
|||
conda install -c conda-forge ultralytics
|
||||
```
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
CUDA 환경에서 설치하는 경우 일반적으로 `ultralytics`, `pytorch` 및 `pytorch-cuda`를 동일한 명령어로 설치하여 Conda 패키지 관리자가 충돌을 해결하도록 하거나, 필요한 경우 CPU 전용 `pytorch` 패키지를 덮어쓸 수 있도록 `pytorch-cuda`를 마지막에 설치하는 것이 좋습니다.
|
||||
```bash
|
||||
|
|
@ -130,7 +130,7 @@ Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공
|
|||
<strong>Watch:</strong> Ultralytics YOLO Quick Start Guide
|
||||
</p>
|
||||
|
||||
!!! tip "팁"
|
||||
!!! Tip "팁"
|
||||
|
||||
PyTorch 설치 요구사항은 운영 체제와 CUDA 요구사항에 따라 다르므로 [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)의 지침에 따라 PyTorch를 먼저 설치하는 것이 권장됩니다.
|
||||
|
||||
|
|
@ -142,7 +142,7 @@ Ultralytics는 pip, conda, Docker를 포함한 다양한 설치 방법을 제공
|
|||
|
||||
Ultralytics 명령줄 인터페이스(CLI)는 Python 환경이 필요 없이 단일 라인 명령어를 통해 작업을 쉽게 실행할 수 있도록 합니다. CLI는 커스터마이징이나 Python 코드가 필요 없습니다. `yolo` 명령어를 이용해 터미널에서 모든 작업을 실행할 수 있습니다. 명령줄에서 YOLOv8을 사용하는 방법에 대해 더 알아보려면 [CLI 가이드](/../usage/cli.md)를 참고하세요.
|
||||
|
||||
!!! example
|
||||
!!! Example
|
||||
|
||||
=== "문법"
|
||||
|
||||
|
|
@ -196,7 +196,7 @@ Ultralytics 명령줄 인터페이스(CLI)는 Python 환경이 필요 없이 단
|
|||
yolo cfg
|
||||
```
|
||||
|
||||
!!! warning "주의"
|
||||
!!! Warning "주의"
|
||||
|
||||
모든 인수는 `arg=val`쌍으로 전달되어야 하며, 각 쌍 사이에는 공백으로 구분해야 합니다. 인수 접두사로 `--`를 사용하거나 인수 사이에 쉼표 `,`를 사용해서는 안 됩니다.
|
||||
|
||||
|
|
|
|||
|
|
@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, 이미지 분류, 사전 훈련된 모델, YOLOv8
|
|||
|
||||
이미지 분류기의 출력은 단일 클래스 라벨과 신뢰도 점수입니다. 이미지 분류는 클래스의 이미지만 알고 싶고 해당 클래스의 객체가 어디에 위치하고 있는지 또는 그 정확한 형태가 무엇인지 알 필요가 없을 때 유용합니다.
|
||||
|
||||
!!! 팁 "팁"
|
||||
!!! Tip "팁"
|
||||
|
||||
YOLOv8 분류 모델은 `-cls` 접미사를 사용합니다. 예: `yolov8n-cls.pt`이며, [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml)에서 사전 훈련되었습니다.
|
||||
|
||||
|
|
@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, 이미지 분류, 사전 훈련된 모델, YOLOv8
|
|||
|
||||
YOLOv8n-cls 모델을 MNIST160 데이터셋에서 100 에포크 동안 학습시키고 이미지 크기는 64로 설정합니다. 가능한 모든 인자는 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다.
|
||||
|
||||
!!! 예제 ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -76,7 +76,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl
|
|||
|
||||
학습된 YOLOv8n-cls 모델의 정확도를 MNIST160 데이터셋에서 검증합니다. `model`은 모델 속성으로 훈련 시 `data` 및 인자를 유지하므로 추가 인자를 전달할 필요가 없습니다.
|
||||
|
||||
!!! 예제 ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -103,7 +103,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl
|
|||
|
||||
학습된 YOLOv8n-cls 모델을 사용하여 이미지에 대한 예측을 실행합니다.
|
||||
|
||||
!!! 예제 ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -130,7 +130,7 @@ YOLO 분류 데이터셋 형식은 [데이터셋 가이드](../../../datasets/cl
|
|||
|
||||
YOLOv8n-cls 모델을 ONNX, CoreML 등과 같은 다른 형식으로 내보냅니다.
|
||||
|
||||
!!! 예제 ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, 객체 감지, 사전 훈련된 모델, 훈련,
|
|||
<strong>시청하기:</strong> 사전 훈련된 Ultralytics YOLOv8 모델로 객체 감지하기.
|
||||
</p>
|
||||
|
||||
!!! tip "팁"
|
||||
!!! Tip "팁"
|
||||
|
||||
YOLOv8 Detect 모델들은 기본 YOLOv8 모델이며 예를 들어 `yolov8n.pt` 이 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에서 사전 훈련되었습니다.
|
||||
|
||||
|
|
@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, 객체 감지, 사전 훈련된 모델, 훈련,
|
|||
|
||||
COCO128 데이터셋에서 이미지 크기 640으로 YOLOv8n 모델을 100 에포크 동안 훈련합니다. 가능한 모든 인수에 대한 목록은 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -86,7 +86,7 @@ YOLO 감지 데이터셋 형식은 [데이터셋 가이드](../../../datasets/de
|
|||
|
||||
COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니다. `model`은 훈련 시의 `data`와 인수를 모델 속성으로 보존하기 때문에 인수를 전달할 필요가 없습니다.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -115,7 +115,7 @@ COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니
|
|||
|
||||
훈련된 YOLOv8n 모델을 사용하여 이미지에 대한 예측을 수행합니다.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -142,7 +142,7 @@ COCO128 데이터셋에서 훈련된 YOLOv8n 모델의 정확도를 검증합니
|
|||
|
||||
YOLOv8n 모델을 ONNX, CoreML 등과 같은 다른 형식으로 내보냅니다.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, 탐지, 세분화, 분류, 자세 추정, AI 프
|
|||
|
||||
YOLOv8는 여러 컴퓨터 비전 **작업**을 지원하는 AI 프레임워크입니다. 이 프레임워크는 [탐지](detect.md), [세분화](segment.md), [분류](classify.md), 그리고 [자세](pose.md) 추정을 수행하는 데 사용될 수 있습니다. 각각의 작업은 서로 다른 목적과 사용 사례를 가지고 있습니다.
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 다국어 문서화 작업이 진행 중에 있으며, 더 나은 문서를 제공하기 위해 노력하고 있습니다. 인내해 주셔서 감사합니다! 🙏
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ keywords: Ultralytics, YOLO, YOLOv8, 포즈 추정, 키포인트 검출, 객체
|
|||
<strong>시청하기:</strong> Ultralytics YOLOv8을 이용한 포즈 추정.
|
||||
</p>
|
||||
|
||||
!!! tip "팁"
|
||||
!!! Tip "팁"
|
||||
|
||||
YOLOv8 _pose_ 모델은 `-pose` 접미사가 붙습니다. 예: `yolov8n-pose.pt`. 이 모델들은 [COCO keypoints](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) 데이터셋으로 학습되었으며 포즈 추정 작업에 적합합니다.
|
||||
|
||||
|
|
@ -51,7 +51,7 @@ keywords: Ultralytics, YOLO, YOLOv8, 포즈 추정, 키포인트 검출, 객체
|
|||
|
||||
COCO128-pose 데이터셋에서 YOLOv8-pose 모델 학습하기.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -87,7 +87,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가
|
|||
|
||||
학습된 YOLOv8n-pose 모델의 정확도를 COCO128-pose 데이터셋에서 검증하기. 모델은 학습 `data` 및 인수를 모델 속성으로 유지하기 때문에 인수를 전달할 필요가 없습니다.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -116,7 +116,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가
|
|||
|
||||
학습된 YOLOv8n-pose 모델을 사용하여 이미지에 대한 예측 수행하기.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -143,7 +143,7 @@ YOLO 포즈 데이터셋 형식에 대한 자세한 내용은 [데이터셋 가
|
|||
|
||||
YOLOv8n 포즈 모델을 ONNX, CoreML 등 다른 형식으로 내보내기.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ keywords: yolov8, 인스턴스 세그멘테이션, Ultralytics, COCO 데이터
|
|||
<strong>시청하기:</strong> Python에서 사전 훈련된 Ultralytics YOLOv8 모델로 세그멘테이션 실행.
|
||||
</p>
|
||||
|
||||
!!! tip "팁"
|
||||
!!! Tip "팁"
|
||||
|
||||
YOLOv8 Segment 모델은 '-seg' 접미사를 사용하며 즉, `yolov8n-seg.pt`와 같이 [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) 데이터셋에 사전 훈련되어 있습니다.
|
||||
|
||||
|
|
@ -50,7 +50,7 @@ keywords: yolov8, 인스턴스 세그멘테이션, Ultralytics, COCO 데이터
|
|||
|
||||
COCO128-seg 데이터셋에서 이미지 크기 640으로 YOLOv8n-seg을 100 에포크 동안 훈련합니다. 가능한 모든 인자 목록은 [설정](/../usage/cfg.md) 페이지에서 확인할 수 있습니다.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "파이썬"
|
||||
|
||||
|
|
@ -86,7 +86,7 @@ YOLO 세그멘테이션 데이터셋 형식은 [데이터셋 가이드](../../..
|
|||
|
||||
COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검증합니다. 모델은 훈련할 때의 `data`와 인자를 모델 속성으로 기억하기 때문에 별도의 인자를 전달할 필요가 없습니다.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "파이썬"
|
||||
|
||||
|
|
@ -119,7 +119,7 @@ COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검
|
|||
|
||||
훈련된 YOLOv8n-seg 모델을 사용하여 이미지에 대한 예측을 실행합니다.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "파이썬"
|
||||
|
||||
|
|
@ -146,7 +146,7 @@ COCO128-seg 데이터셋에서 훈련된 YOLOv8n-seg 모델의 정확도를 검
|
|||
|
||||
ONNX, CoreML 등과 같은 다른 형식으로 YOLOv8n-seg 모델을 수출합니다.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "예제"
|
||||
|
||||
=== "파이썬"
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue