Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)

Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com>
Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
Glenn Jocher 2023-11-18 21:51:47 +01:00 committed by GitHub
parent b6baae584c
commit 02bf8003a8
No known key found for this signature in database
GPG key ID: 4AEE18F83AFDEB23
337 changed files with 6584 additions and 777 deletions

134
docs/hi/datasets/index.md Normal file
View file

@ -0,0 +1,134 @@
---
comments: true
description: Ultralytics द्वारा समर्थित विभिन्न कंप्यूटर विज्ञान डेटासेट्स का अवलोकन | वस्त्र स्पष्टीकरण, संरेखण, पोज आकलन, छवि वर्गीकरण और बहु-वस्तु ट्रैकिंग के लिए।
keywords: computer vision, datasets, Ultralytics, YOLO, object detection, instance segmentation, pose estimation, image classification, multi-object tracking
---
# डेटासेट अवलोकन
Ultralytics कंप्यूटर विज्ञान कार्यों को सुविधाजनक बनाने के लिए विभिन्न डेटासेट्स का समर्थन प्रदान करता है। इसमें वस्त्र स्पष्टीकरण, संदर्भ बनाने, पोज आकलन, वर्गीकरण और बहु-वस्तु ट्रैकिंग जैसे कंप्यूटर विज्ञान कार्यों के लिए। नीचे मुख्य Ultralytics डेटासेट की सूची है, इसके पश्चात प्रत्येक कंप्यूटर विज्ञान कार्य और संबंधित डेटासेटों का संक्षेप दिया गया है।
!!! Note
🚧 हमारे बहुभाषी दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कड़ी मेहनत कर रहे हैं। आपकी सहकार्य के लिए आपका धन्यवाद! 🙏
## [वस्त्र स्पष्टीकरण डेटासेट (Detection Datasets)](../../datasets/detect/index.md)
बाउंडिंग बॉक्स ऑब्जेक्ट डिटेक्शन एक कंप्यूटर विज्ञान तकनीक है जिसमें प्रत्येक ऑब्जेक्ट के चारों ओर एक बाउंडिंग बॉक्स बनाकर छवि में ऑब्जेक्ट का पता लगाया जाता है।
- [Argoverse](../../datasets/detect/argoverse.md): एक डेटासेट जो शहरी वातावरणों से 3D ट्रैकिंग और मोशन फोरेकास्टिंग डेटा को समृद्ध एनोटेशन के साथ स्थानांतरित करता है।
- [COCO](../../datasets/detect/coco.md): एक बड़े पैमाने पर डिज़ाइन किए गए डेटासेट जिसमें ऑब्जेक्ट डिटेक्शन, सेगमेंटेशन और कैप्शनिंग के लिए 200K से अधिक लेबल चित्र हैं।
- [COCO8](../../datasets/detect/coco8.md): COCO प्रशिक्षण और COCO मूल्यांकन के पहले 4 छवियां हैं, जो त्वरित परीक्षणों के लिए उपयुक्त हैं।
- [Global Wheat 2020](../../datasets/detect/globalwheat2020.md): विश्वव्यापी गेहूँ शिर्ष छवियों का एक डेटासेट, जिसे ऑब्जेक्ट डिटेक्शन और स्थानांतरण कार्यों के लिए ऐच्छिक बनाया गया है।
- [Objects365](../../datasets/detect/objects365.md): ऑब्जेक्ट डिटेक्शन के लिए एक उच्च गुणवत्ता वाला बड़ा-स्केल डेटासेट जिसमें 365 ऑब्जेक्ट श्रेणियाँ और 600K से अधिक एनोटेटेड छवियां हैं।
- [OpenImagesV7](../../datasets/detect/open-images-v7.md): Google द्वारा एक व्यापक डेटासेट, जिसमें 1.7M प्रशिक्षण छवियां और 42k मान्यता छवियां हैं।
- [SKU-110K](../../datasets/detect/sku-110k.md): विपणनीय वातावरणों में घना ऑब्जेक्ट डिटेक्शन के तत्वों के साथ एक डेटासेट, जिसमें 11K छवियां और 1.7 मिलियन बाउंडिंग बॉक्स हैं।
- [VisDrone](../../datasets/detect/visdrone.md): ड्रोन द्वारा पकड़ी गई छवियों से ऑब्जेक्ट डिटेक्शन और बहु-ऑब्जेक्ट ट्रैकिंग डेटा का एक डेटासेट, जिसमें 10K से अधिक छवियां और वीडियो सीक्वेंसेस हैं।
- [VOC](../../datasets/detect/voc.md): Pascal Visual Object Classes (VOC) डेटासेट, जिसमें 20 ऑब्जेक्ट कक्षाएं और 11K से अधिक छवियां हैं, के लिए ऑब्जेक्ट डिटेक्शन और संवर्धन जैसे कार्यों के लिए है।
- [xView](../../datasets/detect/xview.md): ओवरहेड छवियों में ऑब्जेक्ट डिटेक्शन के लिए एक डेटासेट, जिसमें 60 ऑब्जेक्ट श्रेणियां और 1 मिलियन से अधिक एनोटेटेड ऑब्जेक्ट हैं।
## [संरेखण डेटासेट (Instance Segmentation Datasets)](../../datasets/segment/index.md)
संरेखण एक कंप्यूटर विज्ञान तकनीक है जिसमें छवि में ऑब्जेक्ट की उपयुक्त स्तर पर पहचान और स्थानांतरण होता है।
- [COCO](../../datasets/segment/coco.md): ऑब्जेक्ट डिटेक्शन, संरेखण, और कैप्शनिंग के लिए डिज़ाइन किए गए एक बड़े पैमाने पर डेटासेट जिसमें 200K से अधिक लेबल चित्र हैं।
- [COCO8-संरेखण](../../datasets/segment/coco8-seg.md): संरेखण कार्यों के लिए योग्यता युक्त 8 COCO छवियों के एक हल्का डेटासेट जिसमें संरेखण एनोटेशन्स हैं।
## [पोज आकलन (Pose Estimation)](../../datasets/pose/index.md)
पोज आकलन एक तकनीक है जिसमें ऑब्जेक्ट की पोज को कैमरे या विश्व संचालन सिद्धांत के मुकाबले आकलित किया जाता है।
- [COCO](../../datasets/pose/coco.md): पोज आकलन कार्यों के लिए मानव पोज एनोटेशन के साथ एक बड़े पैमाने पर डेटासेट।
- [COCO8-पोज](../../datasets/pose/coco8-pose.md): पोज आकलन कार्यों के लिए योग्यता युक्त 8 COCO छवियों के एक हल्का डेटासेट जिसमें मानव पोज एनोटेशन्स हैं।
- [Tiger-पोज](../../datasets/pose/tiger-pose.md): पोज आकलन कार्यों के लिए 12 कीपॉइंट्स प्रति बाघ के लिए 263 छवियों का एक संक्षिप्त डेटासेट।
## [वर्गीकरण (Classification)](../../datasets/classify/index.md)
छवि वर्गीकरण एक कंप्यूटर विज्ञान कार्य है जिसमें एक छवि को उसके विज़ुअल सामग्री के आधार पर एक या एक से अधिक पहले से निर्धारित कक्षाओं या श्रेणियों में वर्गीकृत किया जाता है।
- [Caltech 101](../../datasets/classify/caltech101.md): 101 ऑब्जेक्ट कक्षाओं की छवियां वर्गीकरण कार्यों के लिए एक डेटासेट।
- [Caltech 256](../../datasets/classify/caltech256.md): 256 ऑब्जेक्ट कक्षाओं के साथ Caltech 101 का विस्तारित संस्करण जिसमें अधिक चुनौतीपूर्ण छवियां हैं।
- [CIFAR-10](../../datasets/classify/cifar10.md): 10 कक्षाओं में 60K 32x32 रंगीन छवियों का डेटासेट, प्रति कक्षा 6K छवियां हैं।
- [CIFAR-100](../../datasets/classify/cifar100.md): 100 ऑब्जेक्ट कक्षाओं के साथ CIFAR-10 का विस्तारित संस्करण जिसमें प्रति कक्षा 600 छवियां हैं।
- [Fashion-MNIST](../../datasets/classify/fashion-mnist.md): छवि वर्गीकरण कार्यों के लिए 10 फैशन कक्षाओं के 70,000 सेंधांतरण छवि से बना एक डेटासेट।
- [ImageNet](../../datasets/classify/imagenet.md): ऑब्जेक्ट डिटेक्शन और छवि वर्गीकरण के लिए एक बड़े पैमाने पर डेटासेट, जिसमें 14 मिलियन से अधिक छवियां और 20,000 कक्षाएं हैं।
- [ImageNet-10](../../datasets/classify/imagenet10.md): छवि प्रायोगशाला में त्वरित प्रयोग और परीक्षण के लिए 10 कक्षाओं के ImageNet का एक छोटा संकलन।
- [Imagenette](../../datasets/classify/imagenette.md): त्वरित प्रशिक्षण और परीक्षण के लिए 10 आसानी से पहचाने जाने वाली कक्षाएं वाले ImageNet का एक छोटा संकलन।
- [Imagewoof](../../datasets/classify/imagewoof.md): छवि वर्गीकरण कार्यों के लिए 10 कुत्ते की नस्लों के आकृतियों के साथ ImageNet का एक अधिक चुनौतीपूर्ण संकलन।
- [MNIST](../../datasets/classify/mnist.md): छवि वर्गीकरण कार्यों के लिए हस्तलेखित अंकों के 70,000 सेंधांतरण छवि से बना एक डेटासेट।
## [उभयार्थित बाउंडिंग बॉक्सेस (Oriented Bounding Boxes, OBB)](../../datasets/obb/index.md)
उभयार्थित बाउंडिंग बॉक्सेस (OBB) एक कंप्यूटर विज्ञान में एक तरीका है जिसमें घुमे हुए बाउंडिंग बॉक्स का उपयोग करके छवियों में एंगल हुए ऑब्जेक्ट्स का पता लगाया जाता है, जो अक्सर आवक और उपग्रह प्रतिमाओं पर लागू होता है।
- [DOTAv2](../../datasets/obb/dota-v2.md): एक लोकप्रिय OBB आकाशीय छवि डेटासेट जिसमें 1.7 मिलियन आइंस्टेंसेज और 11,268 छवियां हैं।
## [बहु-ऑब्जेक्ट ट्रैकिंग (Multi-Object Tracking)](../../datasets/track/index.md)
बहु-ऑब्जेक्ट ट्रैकिंग एक कंप्यूटर विज्ञान तकनीक है जिसमें वीडियो सिक्वेंस में वक्त के साथ एक से अधिक ऑब्जेक्ट्स का पता लगाने और ट्रैक करने का शामिल है।
- [Argoverse](../../datasets/detect/argoverse.md): उच्च शहरी वातावरणों से 3D ट्रैकिंग और मोशन फोरेकास्टिंग डेटा के साथ रिच एनोटेशन के लिए एक डेटासेट।
- [VisDrone](../../datasets/detect/visdrone.md): ड्रोन-पकड़ी छवियों से ऑब्जेक्ट डिटेक्शन और बहु-ऑब्जेक्ट ट्रैकिंग डेटा का एक डेटासेट जिसमें 10K से अधिक छवियां और वीडियो सीक्वेंसेस हैं।
## नई डेटासेट का योगदान दें
नई डेटासेट का योगदान देना मौजूदा ढांचे के स्थानांतरण के साथ समर्थित होने के लिए कई चरणों का पालन करने की आवश्यकता होती है। नीचे दिए गए मानक कदम हैं:
### नई डेटासेट के योगदान के चरण
1. **छवियों का संग्रह करें**:
डेटासेट में शामिल होने वाली छवियों का संग्रह करें। इन्हें पब्लिक डेटाबेस से या अपने संग्रह से इकट्ठा किया जा सकता है।
2. **छवि एनोटेशन करें**:
इन छवियों को बाउंडिंग बॉक्स, संरेखण या कीपॉइंट्स के साथ थस्क करें, टास्क के आधार पर।
3. **एनोटेशन निर्यात करें**:
इन एनोटेशन को योलो *.txt फ़ाइल प्रारूप में निर्यात करें, जिसे Ultralytics समर्थित करता है।
4. **डेटासेट व्यवस्थित करें**:
अपने डेटासेट को सही फ़ोल्डर संरचना में व्यवस्थित करें। आपके पास `train/` और `val/` शीर्ष-स्तर निर्देशिकाएँ होनी चाहिए, और हर एक में `images/` और `labels/` उप-निर्देशिका होनी चाहिए।
```
dataset/
├── train/
│ ├── images/
│ └── labels/
└── val/
├── images/
└── labels/
```
5. **एक `data.yaml` फ़ाइल बनाएं**:
अपने डेटासेट के रूट निर्देशिका में, डेटासेट, कक्षाएँ, और अन्य आवश्यक जानकारी का वर्णन करने वाली `data.yaml` फ़ाइल बनाएं।
6. **छवियों को अवधित करें (वैकल्पिक)**:
यदि आप प्रभावी प्रसंस्करण के लिए डेटासेट का आकार कम करना चाहते हैं, तो आप निम्नलिखित कोड का उपयोग करके छवियों को अवधित कर सकते हैं। यह अनिवार्य नहीं है, लेकिन छोटा डेटासेट आकार और तेज डाउनलोड की गति के लिए सिफारिश की जाती है।
7. **डेटासेट को ज़िप करें**:
पूरे डेटासेट फ़ोल्डर को एक ज़िप फ़ाइल में संपीड़ित करें।
8. **दस्तावेज़ीकरण और पीआर**: अपने डेटासेट के बारे में एक दस्तावेज़ीकरण पेज बनाएं और उसके बारे में समर्थन करने वाली मौजूदा संरचना में कैसे समाविष्ट करें इसका वर्णन करें । उसके बाद, एक पुल अनुरोध (PR) सबमिट करें। पीआर जमा करने के लिए अधिक विवरण के लिए [उल्ट्रालिटिक्स योगदान दिशानिर्देशिका](https://docs.ultralytics.com/help/contributing) देखें।
### डेटासेट को अवधित करने और ज़िप करने के लिए उदाहरण कोड
!!! Example "डेटासेट को अवधित करने और ज़िप करने के लिए उदाहरण कोड"
=== "Python"
```python
from pathlib import Path
from ultralytics.data.utils import compress_one_image
from ultralytics.utils.downloads import zip_directory
# डेटासेट निर्देशिका को परिभाषित करें
path = Path('path/to/dataset')
# डेटासेट में छवि अवधित करें (वैकल्पिक)
for f in path.rglob('*.jpg'):
compress_one_image(f)
# डेटासेट को 'path/to/dataset.zip' में ज़िप करें
zip_directory(path)
```
इन कदमों का पालन करके, आप अपने डेटासेट का योगदान प्रदान कर सकते हैं जो Ultralytics के मौजूदा संरचना के अच्छी तरह से समाविष्ट होता है।

83
docs/hi/index.md Normal file
View file

@ -0,0 +1,83 @@
---
comments: true
description: Ultralytics YOLOv8 के पूर्ण गाइड को जानें, एक उच्च गति, उच्च योग्यता वाले वस्तु का पता लगाने और छवि विभाजन मॉडल। स्थापना, भविष्यवाणी, प्रशिक्षण ट्यूटोरियल और बहुत कुछ।
keywords: Ultralytics, YOLOv8, वस्तु पता लगाना, छवि विभाजन, मशीन लर्निंग, गहरी लर्निंग, कंप्यूटर विज़न, YOLOv8 स्थापना, YOLOv8 भविष्यवाणी, YOLOv8 प्रशिक्षण, YOLO इतिहास, YOLO लाइसेंसेस
---
<div align="center">
<p>
<a href="https://yolovision.ultralytics.com" target="_blank">
<img width="1024" src="https://raw.githubusercontent.com/ultralytics/assets/main/yolov8/banner-yolov8.png" alt="Ultralytics YOLO banner"></a>
</p>
<a href="https://github.com/ultralytics"><img src="https://github.com/ultralytics/assets/raw/main/social/logo-social-github.png" width="3%" alt="Ultralytics GitHub"></a>
<img src="https://github.com/ultralytics/assets/raw/main/social/logo-transparent.png" width="3%">
<a href="https://www.linkedin.com/company/ultralytics/"><img src="https://github.com/ultralytics/assets/raw/main/social/logo-social-linkedin.png" width="3%" alt="Ultralytics LinkedIn"></a>
<img src="https://github.com/ultralytics/assets/raw/main/social/logo-transparent.png" width="3%">
<a href="https://twitter.com/ultralytics"><img src="https://github.com/ultralytics/assets/raw/main/social/logo-social-twitter.png" width="3%" alt="Ultralytics Twitter"></a>
<img src="https://github.com/ultralytics/assets/raw/main/social/logo-transparent.png" width="3%">
<a href="https://youtube.com/ultralytics"><img src="https://github.com/ultralytics/assets/raw/main/social/logo-social-youtube.png" width="3%" alt="Ultralytics YouTube"></a>
<img src="https://github.com/ultralytics/assets/raw/main/social/logo-transparent.png" width="3%">
<a href="https://www.tiktok.com/@ultralytics"><img src="https://github.com/ultralytics/assets/raw/main/social/logo-social-tiktok.png" width="3%" alt="Ultralytics TikTok"></a>
<img src="https://github.com/ultralytics/assets/raw/main/social/logo-transparent.png" width="3%">
<a href="https://www.instagram.com/ultralytics/"><img src="https://github.com/ultralytics/assets/raw/main/social/logo-social-instagram.png" width="3%" alt="Ultralytics Instagram"></a>
<img src="https://github.com/ultralytics/assets/raw/main/social/logo-transparent.png" width="3%">
<a href="https://ultralytics.com/discord"><img src="https://github.com/ultralytics/assets/raw/main/social/logo-social-discord.png" width="3%" alt="Ultralytics Discord"></a>
<br>
<br>
<a href="https://github.com/ultralytics/ultralytics/actions/workflows/ci.yaml"><img src="https://github.com/ultralytics/ultralytics/actions/workflows/ci.yaml/badge.svg" alt="Ultralytics CI"></a>
<a href="https://codecov.io/github/ultralytics/ultralytics"><img src="https://codecov.io/github/ultralytics/ultralytics/branch/main/graph/badge.svg?token=HHW7IIVFVY" alt="Ultralytics Code Coverage"></a>
<a href="https://zenodo.org/badge/latestdoi/264818686"><img src="https://zenodo.org/badge/264818686.svg" alt="YOLOv8 Citation"></a>
<a href="https://hub.docker.com/r/ultralytics/ultralytics"><img src="https://img.shields.io/docker/pulls/ultralytics/ultralytics?logo=docker" alt="Docker Pulls"></a>
<br>
<a href="https://console.paperspace.com/github/ultralytics/ultralytics"><img src="https://assets.paperspace.io/img/gradient-badge.svg" alt="Run on Gradient"/></a>
<a href="https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb"><img src="https://colab.research.google.com/assets/colab-badge.svg" alt="Open In Colab"></a>
<a href="https://www.kaggle.com/ultralytics/yolov8"><img src="https://kaggle.com/static/images/open-in-kaggle.svg" alt="Open In Kaggle"></a>
</div>
पेश करते हैं [युल्ट्रालिटिक्स](https://ultralytics.com) [YOLOv8](https://github.com/ultralytics/ultralytics), प्रसिद्ध वास्तविक समय वस्तु पता लगाने और छवि विभाजन मॉडल की नवीनतम संस्करण। YOLOv8 गहरी लर्निंग और कंप्यूटर विज़न में कटिंग-एज उन्नति पर आधारित है, इसलिए गति और योग्यता के मामले में इसका प्रदर्शन अद्वितीय है। इसका संक्षेपित डिज़ाइन इसे विभिन्न अनुप्रयोगों के लिए उपयुक्त बनाता है और विभिन्न हार्डवेयर प्लेटफ़ॉर्म्स पर आसानी से अनुकूल बनाता है, शुरू और धारण के लिए िजोग्य करता है।
YOLOv8 डॉक्स का अन्वेषण करें, यह एक व्यापक स्रोत है जो आपको इसके सुविधाओं और क्षमताओं को समझने और उपयोग करने में मदद करने के लिए विकसित किया गया है। चाहे आप एक अनुभवी मशीन लर्निंग प्रैक्टीशनर हो या क्षेत्र में नये हों, इस हब का उद्देश्य आपके परियोजनाओं में YOLOv8 की क्षमताओं को अधिकतम करना है।
!!! Note
🚧 हमारी बहुभाषी दस्तावेजीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। आपकी सहायता के लिए धन्यवाद! 🙏
## शुरुआत कहाँ से करें
- **Install** `pip` के साथ `ultralytics` स्थापित करें और कुछ मिनट में चलता हुआ पाएं &nbsp; [:material-clock-fast: शुरू हो जाओ](quickstart.md){ .md-button }
- **Predict** यूनिक images और videos को YOLOv8 के साथ &nbsp; [:octicons-image-16: छवियों पर भविष्यवाणी करें](modes/predict.md){ .md-button }
- **Train** अपने खुद के custom डेटासेट पर एक नया YOLOv8 मॉडल &nbsp; [:fontawesome-solid-brain: मॉडल प्रशिक्षित करें](modes/train.md){ .md-button }
- **अन्वेषण** करें YOLOv8 tasks जैसे कि विभाजित, वर्गीकृत, स्थिति और ट्रैक करें &nbsp; [:material-magnify-expand: टास्क्स अन्वेषण करें](tasks/index.md){ .md-button }
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/LNwODJXcvt4?si=7n1UvGRLSd9p5wKs"
title="YouTube video player" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> अपने कस्टम डेटासेट पर YOLOv8 मॉडल को कैसे ट्रेन करें <a href="https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb" target="_blank">Google Colab</a> में।
</p>
## YOLO: एक संक्षिप्त इतिहास
[YOLO](https://arxiv.org/abs/1506.02640) (You Only Look Once), एक लोकप्रिय वस्तु पता लगाने और छवि विभाजन मॉडल, यूनिवर्सिटी ऑफ वाशिंगटन में Joseph Redmon और Ali Farhadi द्वारा विकसित किया गया था। YOLO की उच्च गति और योग्यता के कारण, यह 2015 में तेजी से प्रसिद्ध हुआ।
- [YOLOv2](https://arxiv.org/abs/1612.08242), 2016 में जारी किया गया, मूल मॉडल में batch normalization, anchor boxes और dimension clusters शामिल करके मॉडल में सुधार किया।
- [YOLOv3](https://pjreddie.com/media/files/papers/YOLOv3.pdf), 2018 में लॉन्च किया गया, एक अधिक प्रभावी बैकबोन नेटवर्क, एंकर बॉक्सेस और स्थानिक पिरामिड पूलिंग के उपयोग से मॉडल की प्रदर्शन को और बढ़ाया।
- [YOLOv4](https://arxiv.org/abs/2004.10934) 2020 में जारी किया गया, Mosaic डेटा वृद्धि, एक नया anchor-free डिटेक्शन हेड और एक नया लॉस फ़ंक्शन के जैसे नवाचार द्वारा मॉडल को बेहतर बनाया गया।
- [YOLOv5](https://github.com/ultralytics/yolov5) मॉडल की प्रदर्शन को और बेहतर बनाने के साथ, हाइपरपैरामीटर ऑप्टिमाइज़ेशन, एकीकृत प्रयोग ट्रैकिंग और लोकप्रिय export formats में स्वचालित निर्यात जैसे नए सुविधाएं जोड़ी गईं।
- [YOLOv6](https://github.com/meituan/YOLOv6) 2022 में [मेटुआन](https://about.meituan.com/) द्वारा ओपन-सोस्ड किया गया था और कई कम्पनी के स्वतंत्र वितरण रोबोट में उपयोग में है।
- [YOLOv7](https://github.com/WongKinYiu/yolov7) ने COCO keypoints डेटासेट पर पोज अनुमान जैसे अतिरिक्त टास्क जोड़ दिया।
- [YOLOv8](https://github.com/ultralytics/ultralytics) Ultralytics द्वारा YOLO का नवीनतम संस्करण है। एक तलवार की काट, आपातता मॉडल के सफलता पर निर्मितकर्ताओं की मेहनत की चटानों पर निर्माण करके YOLOv8 ने पिछले संस्करणों की सफलता पर आधारित, नई सुविधाएं और सुधार अद्यतित प्रदर्शन, लचीलापन और प्रदार्थता के लिए प्रस्तुत किए हैं। YOLOv8 विजन AI tasks, जैसे [पता लगाना](tasks/detect.md), [विभाजन](tasks/segment.md), [पोज अनुमान](tasks/pose.md), [ट्रैकिंग](modes/track.md), और [वर्गीकरण](tasks/classify.md) का पूरा समर्थन करता है। यह विविध अनुप्रयोग और क्षेत्रों में योलोवी8 की क्षमताओं का उपयोग करने की अनुमति देता है।
YOLO लाइसेंसेस: Ultralytics YOLO का प्रयोग कैसे होता है?
Ultralytics विभिन्न उपयोग मामलों को समर्थित करने के लिए दो लाइसेंसिंग विकल्प प्रदान करता है:
- **AGPL-3.0 लाइसेंस**: यह [OSI स्वीकृत](https://opensource.org/licenses/) ओपन-सोर्स लाइसेंस छात्रों और उत्साहीयों के लिए उपयुक्त है, गहन सहयोग और ज्ञान साझा करने के लिए प्रोत्साहित करता है। अधिक जानकारी के लिए [LICENSE](https://github.com/ultralytics/ultralytics/blob/main/LICENSE) फ़ाइल देखें।
- **व्यवसायिक लाइसेंस**: व्यावसायिक उपयोग के लिए डिज़ाइन किया गया, यह लाइसेंस Ultralytics सॉफ़्टवेयर और AI मॉडल को वाणिज्यिक माल और सेवाओं में सरलतापूर्वक सम्मिलित करने की अनुमति देता है, AGPL-3.0 की ओपन-सोर्स आवश्यकताओं को छोड़ता है। यदि आपके परिदृश्य में हमारे समाधानों को एक वाणिज्यिक प्रस्ताव में एम्बेड करना शामिल है, [Ultralytics Licensing](https://ultralytics.com/license) के माध्यम से संपर्क करें।
हमारी लाइसेंसिंग रणनीति इस सुनिश्चित करने के लिए है कि हमारे ओपन-सोर्स परियोजनाओं में किए गए कोई भी सुधार समुदाय को लौटाए जाएं। हम ओपन सोर्स के सिद्धांतों को अपने दिल के पास रखते हैं ❤️, और हमारा मिशन यह सुनिश्चित करना है कि हमारे योगदानों का उपयोग और विस्तार किए जाने के तरीकों में क्रियान्वयन किए जाएं जो सभी के लिए लाभदायक हों।

94
docs/hi/models/index.md Normal file
View file

@ -0,0 +1,94 @@
---
comments: true
description: Ultralytics द्वारा समर्थित YOLO समूह, SAM, MobileSAM, FastSAM, YOLO-NAS, और RT-DETR मॉडल्स की विविधता का पता लगाएं। CLI और Python उपयोग के लिए उदाहरणों के साथ शुरू हो जाएं।
keywords: Ultralytics, दस्तावेज़ीकरण, YOLO, SAM, MobileSAM, FastSAM, YOLO-NAS, RT-DETR, मॉडल, वास्तुरचना, Python, CLI
---
# Ultralytics द्वारा समर्थित मॉडल्स
Ultralytics के मॉडल दस्तावेज़ीकरण में आपका स्वागत है! हम विशेष टास्क जैसे [ऑब्जेक्ट डिटेक्शन](../tasks/detect.md), [इंस्टेंस सेग्मेंटेशन](../tasks/segment.md), [छवि श्रेणीबद्धीकरण](../tasks/classify.md), [पोज़ संख्यानन](../tasks/pose.md), और [मल्टी-ऑब्जेक्ट ट्रैकिंग](../modes/track.md) के लिए विशेष रूप से तैयार किए गए मॉडल का समर्थन करते हैं। अगर आप अपनी मॉडल वास्तुरचना को Ultralytics में योगदान देना चाहते हैं, तो हमारे [योगदान गाइड](../../help/contributing.md) की जांच करें।
!!! Note
🚧 हमारी बहुभाषी दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम उसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। धन्यवाद आपकी सहानुभूति के लिए! 🙏
## प्रमुख मॉडल
यहां कुछ महत्वपूर्ण मॉडल हैं जिन्हें समर्थित किया जाता है:
1. **[YOLOv3](../../models/yolov3.md)**: YOLO मॉडल परिवार का तीसरा संस्करण, जो मूल रूप में Joseph Redmon द्वारा विकसित किया गया था, जिसे उसकी क्षमता के लिए जाना जाता है सही समय में ऑब्जेक्ट डिटेक्शन की।
2. **[YOLOv4](../../models/yolov4.md)**: YOLOv3 के लिए एक डार्कनेट जन्मित अपडेट, जिसे Alexey Bochkovskiy ने 2020 में जारी किया।
3. **[YOLOv5](../../models/yolov5.md)**: यूल्ट्रालिटिक्स द्वारा योगदान की एक सुधारी हुई YOLO वास्तुरचि। पिछले संस्करणों की तुलना में बेहतर प्रदर्शन और गति विपरीत संलग्नाता प्रदान करने का वादा।
4. **[YOLOv6](../../models/yolov6.md)**: 2022 में [मेटुआन](https://about.meituan.com/) द्वारा जारी किया गया, और कंपनी के कई स्वतंत्र वितरण रोबोट में प्रयोग होता है।
5. **[YOLOv7](../../models/yolov7.md)**: YOLOv4 के लेखकों द्वारा जारी किए गए नवीनतम YOLO मॉडल्स।
6. **[YOLOv8](../../models/yolov8.md)**: YOLO परिवार का नवीनतम संस्करण, जिसमें घटनाक्रम सेग्मेंटेशन, पोज़/कीपॉइंट्स अनुमान, और वर्गीकरण जैसी बढ़ी हुई क्षमताएं होती हैं।
7. **[सेगमेंट एनीथिंग मॉडल (SAM)](../../models/sam.md)**: मेटा का सेगमेंट एनीथिंग मॉडल (SAM)।
8. **[मोबाइल सेगमेंट एनीथिंग मॉडल (MobileSAM)](../../models/mobile-sam.md)**: मोबाइल एप्लिकेशनों के लिए MobileSAM, Kyung Hee विश्वविद्यालय द्वारा।
9. **[फ़ास्ट सेगमेंट एनीथिंग मॉडल (FastSAM)](../../models/fast-sam.md)**: दृश्य और वीडियो विश्लेषण समूह, स्वचालन विज्ञान संस्थान, चीन संगठन द्वारा FastSAM।
10. **[YOLO-NAS](../../models/yolo-nas.md)**: YOLO Neural Architecture Search (NAS) मॉडल्स।
11. **[रियलटाइम डिटेक्शन ट्रांसफॉर्मर (RT-DETR)](../../models/rtdetr.md)**: बाइडू का PaddlePaddle रियलटाइम डिटेक्शन ट्रांसफॉर्मर (RT-DETR) मॉडल।
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/MWq1UxqTClU?si=nHAW-lYDzrz68jR0"
title="YouTube वीडियो प्लेयर" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> थोड़ी सी कोड के कुछ पंक्तियों में Ultralytics YOLO मॉडल चलाएँ।
</p>
## प्रारंभ करना: उपयोग उदाहरण
!!! Example "उदाहरण"
=== "Python"
PyTorch पूर्व-प्रशिक्षित `*.pt` मॉडल और विन्यास `*.yaml` फ़ाइलों को पायथन में योगदान करने के लिए `YOLO()`, `SAM()`, `NAS()` और `RTDETR()` कक्षाओं को पास करके मॉडल की एक नमूना उत्पन्न की जा सकती है:
```python
from ultralytics import YOLO
# एक COCO-पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
model = YOLO('yolov8n.pt')
# मॉडल जानकारी प्रदर्शित करें (वैकल्पिक)
model.info()
# COCO8 उदाहरण डेटासेट पर मॉडल 100 एपॉक्स के लिए प्रशिक्षित करें
results = model.train(data='coco8.yaml', epochs=100, imgsz=640)
# YOLOv8n मॉडल के साथ 'bus.jpg' छवि पर इंफ़ेरेंस चलाएँ
results = model('path/to/bus.jpg')
```
=== "CLI"
मॉडलों को सीधे चलाने के लिए CLI कमांड प्रदान किए गए हैं:
```bash
# एक COCO-पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें और इसे COCO8 उदाहरण डेटासेट पर 100 एपॉक्स के लिए प्रशिक्षित करें
yolo train model=yolov8n.pt data=coco8.yaml epochs=100 imgsz=640
# एक COCO-पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें और 'bus.jpg' छवि पर इंफ़ेरेंस चलाएँ
yolo predict model=yolov8n.pt source=path/to/bus.jpg
```
## नए मॉडल का योगदान देना
Ultralytics में अपना मॉडल योगदान करने में रुचि है? शानदार! हमें हमेशा अपने मॉडल पोर्टफोलियो का विस्तार करने के लिए खुले दिमाग से आगे बढ़ने की आवश्यकता है।
1. **यहाँ से रिपॉजिटरी फोर्क करें**: सबसे पहले, [Ultralytics GitHub रिपॉजिटरी](https://github.com/ultralytics/ultralytics) को फोर्क करके शुरू करें।
2. **अपने फोर्क को क्लोन करें**: अपने फोर्क को अपनी स्थानीय मशीन पर क्लोन करें और काम करने के लिए एक नया शाखा बनाएं।
3. **अपना मॉडल लागू करें**: अपना मॉडल उन्नत करें और Coding मानकों और दिशानिर्देशिकाओं का पालन करते हुए इसे जोड़ें। हमारे [योगदान गाइड](../../help/contributing.md) में उपलब्ध विवरणीय चरणों के लिए संपर्क करें।
4. **पूरी तरह से परीक्षण करें**: अपना मॉडल सम्पूर्ण रूप से औधोगिक रूप से परीक्षण करें, एकांत में और पाइपलाइन का हिस्सा के रूप में।
5. **एक पुल अनुरोध बनाएं**: अपने मॉडल से संतुष्ट होने के बाद, मुख्य रिपॉजिटरी के लिए एक पुल अनुरोध बनाएं जिसका समीक्षा की जाएगी।
6. **कोड समीक्षा और मर्ज**: समीक्षा के बाद, यदि आपका मॉडल हमारे मानदंडों को पूरा करता है, तो यह मुख्य रिपॉजिटरी में मर्ज हो जाएगा।
विस्तृत चरणों के लिए, हमारे [योगदान गाइड](../../help/contributing.md) पर देखें।

View file

@ -0,0 +1,94 @@
---
comments: true
description: Ultralytics YOLO के विभिन्न निर्यात प्रारूपों के जरिए YOLOv8 की गति और सटीकता का जांच करें; mAP50-95, accuracy_top5 माप, और अन्य मापों पर अनुभव प्राप्त करें।
keywords: Ultralytics, YOLOv8, बंचमार्किंग, गति प्रोफाइलिंग, सटीकता प्रोफाइलिंग, mAP50-95, accuracy_top5, ONNX, OpenVINO, TensorRT, YOLO निर्यात प्रारूप
---
# उल्ट्राल्याटिक्स YOLO के साथ मॉडल बंचमार्किंग
<img width="1024" src="https://github.com/ultralytics/assets/raw/main/yolov8/banner-integrations.png" alt="उल्ट्राल्याटिक्स YOLO पारिस्थितिकी और समावेश">
## परिचय
जब आपका मॉडल प्रशिक्षित और सत्यापित हो जाता है, तो आगामी तार्किक चरण होता है कि तत्कालिक वास्तविक-दुनिया की स्थितियों में इसके प्रदर्शन का मूल्यांकन करें। Ultralytics YOLOv8 में बेंचमार्क मोड इस उद्देश्य की सेवा करता है, जहां उपयोगकर्ताओं को अपने मॉडल की गति और सटीकता का मूल्यांकन करने के लिए एक मजबूत ढांचा प्रदान करता है।
## बंचमार्किंग क्यों महत्वपूर्ण है?
- **जागरूक निर्णय:** गति और सटीकता के बीच ट्रेड-ऑफ के बारे में जानकारी प्राप्त करें।
- **संसाधन आवंटन:** अलग-अलग निर्यात प्रारूपों का विभिन्न हार्डवेयर पर कैसा काम करता है इसकी समझ पाएं।
- **अनुकूलन:** अपने विशिष्ट उपयोग मामले में सर्वोत्तम प्रदर्शन प्रदान करने वाला निर्यात प्रारूप कौन सा है, इसकी जानकारी प्राप्त करें।
- **लागत संचय:** बंचमार्क परिणामों के आधार पर हार्डवेयर संसाधनों का अधिक अभिकल्प सेवन करें।
### बंचमार्क मोड में मुख्य माप
- **mAP50-95:** वस्तु का पता लगाने, विभाजन करने और स्थिति मान के लिए।
- **accuracy_top5:** छवि वर्गीकरण के लिए।
- **परिन्दता समय:** प्रति छवि के लिए लिया गया समय मिलीसेकंड में।
### समर्थित निर्यात प्रारूप
- **ONNX:** CPU प्रदर्शन के लिए आदर्श
- **TensorRT:** अधिकतम GPU क्षमता के लिए
- **OpenVINO:** Intel हार्डवेयर संशोधन के लिए
- **CoreML, TensorFlow SavedModel, और अधिक:** विविध डिप्लॉयमेंट आवश्यकताओं के लिए।
!!! Tip "युक्ति"
* तकनीकी कारणों से कंप्यूटिंग संसाधनों का उपयोग करते समय ONNX या OpenVINO में निर्यात करें, ताकि आप CPU स्पीड तक upto 3x तक स्पीडअप कर सकें।
* GPU स्पीड तक अपने कंप्यूटिंग संसाधनों का उपयोग करते समय TensorRT में निर्यात करें ताकि आप तक 5x तक स्पीडअप कर सकें।
## उपयोग उदाहरण
समर्थित सभी निर्यात प्रारूपों पर ONNX, TensorRT आदि के साथ YOLOv8n बंचमार्क चलाएं। पूरी निर्यात विवरण के लिए नीचे Arguments अनुभाग देखें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics.utils.benchmarks import benchmark
# GPU पर बंचमार्क
benchmark(model='yolov8n.pt', data='coco8.yaml', imgsz=640, half=False, device=0)
```
=== "CLI"
```bash
yolo बंचमार्क model=yolov8n.pt data='coco8.yaml' imgsz=640 half=False device=0
```
## Arguments
`model`, `data`, `imgsz`, `half`, `device`, और `verbose` जैसे तर्क उपयोगकर्ताओं को मानदंडों को अपनी विशेष आवश्यकताओं के लिए सुगमता के साथ बंचमार्क को संशोधित करने की सुविधा प्रदान करते हैं, और विभिन्न निर्यात प्रारूपों के प्रदर्शन की तुलना करने की सुविधा प्रदान करते हैं।
| कुंजी | मान | विवरण |
|-----------|------------|---------------------------------------------------------------------------------|
| `model` | `कोई नहीं` | मॉडल फ़ाइल का पथ, यानी yolov8n.pt, yolov8n.yaml |
| `data` | `कोई नहीं` | बेंचमार्किंग डेटासेट को संदर्भित करने वाले YAML फ़ाइल का पथ (val लेबल के तहत) |
| `imgsz` | `640` | छवि का आकार स्कैलर या (h, w) सूची, अर्थात (640, 480) |
| `half` | `असत्य` | FP16 माप्यांकन |
| `int8` | `असत्य` | INT8 माप्यांकन |
| `device` | `कोई नहीं` | चलाने के लिए युक्ति उपकरण, अर्थात cuda device=0 या device=0,1,2,3 या device=cpu |
| `verbose` | `असत्य` | त्रुटि में न जारी रखे (बूल), या वाल (फ्लोट) |
## निर्यात प्रारूप
बंचमार्क प्रयास होगा निम्नलिखित सभी संभावित निर्यात प्रारूपों पर स्वचालित रूप से चलाने की कोशिश करेगा।
| प्रारूप | `प्रारूप` तर्क | मॉडल | मेटाडेटा | तर्क |
|--------------------------------------------------------------------|----------------|---------------------------|----------|-----------------------------------------------------|
| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - |
| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` |
| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` |
| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` |
| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` |
| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` |
| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` |
| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` |
| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` |
| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` |
पूर्ण निर्यात विवरण देखें निर्यात पृष्ठ में [Export](https://docs.ultralytics.com/modes/export/)।

108
docs/hi/modes/export.md Normal file
View file

@ -0,0 +1,108 @@
---
comments: true
description: सभी प्रकार के निर्यात स्तर पर YOLOv8 मॉडल्स को निर्यात करने के लिए आपके लिए चरण-दर-चरण मार्गदर्शिका। अब निर्यात की जांच करें!
keywords: YOLO, YOLOv8, Ultralytics, मॉडल निर्यात, ONNX, TensorRT, CoreML, TensorFlow SavedModel, OpenVINO, PyTorch, निर्यात मॉडल
---
# Ultralytics YOLO के साथ मॉडल निर्यात
<img width="1024" src="https://github.com/ultralytics/assets/raw/main/yolov8/banner-integrations.png" alt="यूल्ट्रालिक्स YOLO ecosystem and integrations">
## परिचय
एक मॉडल की प्रशिक्षण की अंतिम लक्ष्य उसे वास्तविक दुनिया के आवेदनों के लिए तैनात करना होता है। उल्ट्रालिटीक्स YOLOv8 में निर्यात मोड में आपको अभिनवता रेंज के ऑप्शन प्रदान करता है, वायरले किए गए मॉडल को विभिन्न स्वरूपों में निर्यात करने के लिए, जिससे वे विभिन्न प्लेटफॉर्मों और उपकरणों पर प्रदर्शित किए जा सकें। यह व्यापक मार्गदर्शिका अधिकतम संगतता और प्रदर्शन प्राप्त करने के तरीकों को दिखाने का लक्ष्य रखती है।
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/WbomGeoOT_k?si=aGmuyooWftA0ue9X"
title="YouTube वीडियो प्लेयर" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> अपने उत्पादन को निर्यात करने के लिए कस्टम प्रशिक्षित Ultralytics YOLOv8 मॉडल निर्यात करने और वेबकैम पर लाइव अनुमान चलाने।
</p>
## YOLOv8 के निर्यात मोड को क्यों चुनें?
- **विविधता:** ONNX, TensorRT, CoreML और अन्य सहित कई फॉर्मेट में निर्यात करें।
- **प्रदर्शन:** TensorRT में 5x जीपीयू स्पीडअप और ONNX या OpenVINO में 3x सीपीयू स्पीडअप प्राप्त करें।
- **संगतता:** अपने मॉडल को कई हार्डवेयर और सॉफ़्टवेयर पर संगठित करें।
- **उपयोग की सुविधा:** त्वरित और सीधी मॉडल निर्यात के लिए सरल CLI और Python API।
### निर्यात मोड की प्रमुख विशेषताएं
यहाँ कुछ मुख्य विशेषताएँ हैं:
- **एक-क्लिक निर्यात:** अलग-अलग फॉर्मेट में निर्यात करने के लिए सरल कमांड।
- **बैच निर्यात:** बैच-इन्फरेंस क्षमता वाले मॉडलों को निर्यात करें।
- **सुधारित अनुमान:** निर्यात किए गए मॉडल अनुमान समय के लिए अनुकूलन किए जाते हैं।
- **ट्यूटोरियल वीडियो:** सुविधाएं और ट्यूटोरियल सुनिश्चित करने के लिए गहन मार्गदर्शिकाओं का उपयोग करें।
!!! Tip "सुझाव"
* 3x सीपीयू स्पीडअप के लिए ONNX या OpenVINO में निर्यात करें।
* 5x जीपीयू स्पीडअप के लिए TensorRT में निर्यात करें।
## उपयोग उदाहरण
YOLOv8n मॉडल को ONNX या TensorRT जैसे अलग फॉर्मेट में निर्यात करें। पूरी सूची निर्यात तर्कों के लिए नीचे दिए गए Arguments खंड को देखें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('yolov8n.pt') # एक आधिकारिक मॉडल लोड करें
model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें
# मॉडल निर्यात करें
model.export(format='onnx')
```
=== "CLI"
```bash
yolo export model=yolov8n.pt format=onnx # आधिकारिक मॉडल का निर्यात करें
yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल का निर्यात करें
```
## Arguments
YOLO मॉडलों के निर्यात सेटिंग्स निर्यात के विभिन्न विन्यास और विकल्पों के बारे में होते हैं, जिन्हें यूज़ करके मॉडल को अन्य पर्यावरण या प्लेटफ़ॉर्म में सहेजने या निर्यात करने के लिए उपयोग किया जा सकता है। इन सेटिंग्स से मॉडल के प्रदर्शन, आकार और विभिन्न सिस्टम के साथ संगतता प्रभावित हो सकती हैं। कुछ सामान्य YOLO निर्यात सेटिंग्स में निर्यात की गई मॉडल फ़ाइल का स्वरूप (जैसे ONNX, TensorFlow SavedModel), मॉडल कोरी सहवास में चलाने वाली उपकरण (जैसे CPU, GPU) और मास्क या प्रत्येक बॉक्स पर कई लेबलों की उपस्थिति जैसे अतिरिक्त विशेषताएँ शामिल हो सकते हैं। निर्यात प्रक्रिया प्रभावित करने वाले अन्य कारकों में मॉडल द्वारा उपयोग के लिए एक विशेष कार्य और लक्षित पर्यावरण या प्लेटफ़ॉर्म की आवश्यकताओं या सीमाओं का ध्यान देना महत्वपूर्ण है। लक्ष्य प्रयोजन और लक्ष्यित वातावरण में प्रभावी ढंग से उपयोग होने के लिए इन सेटिंग्स को ध्यान से विचार करना महत्वपूर्ण है।
| कुंजी | मान | विवरण |
|-------------|-----------------|------------------------------------------------------------------------|
| `format` | `'torchscript'` | योग्यता के लिए निर्यात करने के लिए स्वरूप |
| `imgsz` | `640` | एकल रूप में छवि का आकार या (h, w) सूची, जैसे (640, 480) |
| `keras` | `False` | TF SavedModel निर्यात के लिए केरस का प्रयोग करें |
| `optimize` | `False` | TorchScript: मोबाइल के लिए ऑप्टिमाइज़ करें |
| `half` | `False` | FP16 संगणना |
| `int8` | `False` | INT8 संगणना |
| `dynamic` | `False` | ONNX/TensorRT: गतिशील ध्यान दिलाने वाले ध्यान |
| `simplify` | `False` | ONNX/TensorRT: मॉडल को सरल बनाएं |
| `opset` | `None` | ONNX: ऑपसेट संस्करण (वैकल्पिक, डिफ़ॉल्ट्स को नवीनतम के रूप में छोड़ें) |
| `workspace` | `4` | TensorRT: कार्यक्षेत्र आकार (GB) |
| `nms` | `False` | CoreML: NMS जोड़ें |
## निर्यात स्वरूप
नीचे दिए गए तालिका में YOLOv8 निर्यात स्वरूप दिए गए हैं। आप किसी भी स्वरूप में निर्यात कर सकते हैं, जैसे `format='onnx'` या `format='engine'`
| स्वरूप | `format` तर्क | मॉडल | मेटाडाटा | तर्क |
|--------------------------------------------------------------------|---------------|---------------------------|----------|-----------------------------------------------------|
| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - |
| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` |
| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` |
| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` |
| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` |
| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` |
| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` |
| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` |
| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` |
| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` |

78
docs/hi/modes/index.md Normal file
View file

@ -0,0 +1,78 @@
---
comments: true
description: प्रशिक्षण से ट्रैकिंग तक, Ultralytics के साथ YOLOv8 का अधिकतम लाभ उठाएं। मान्यता प्राप्त मोड, जैसे पुष्टीकरण, निर्यात और बेंचमार्किंग, के लिए अवधारणाओं और उदाहरण प्राप्त करें।
keywords: Ultralytics, YOLOv8, मशीन लर्निंग, ऑब्जेक्ट डिटेक्शन, प्रशिक्षण, पुष्टीकरण, पूर्वावलोकन, निर्यात, ट्रैकिंग, बेंचमार्किंग
---
# Ultralytics YOLOv8 मोड
<img width="1024" src="https://github.com/ultralytics/assets/raw/main/yolov8/banner-integrations.png" alt="Ultralytics YOLO ecosystem and integrations">
## परिचय
Ultralytics YOLOv8 सिर्फ एक ओब्जेक्ट डिटेक्शन मॉडल नहीं है; यह मशीन लर्निंग मॉडलों के पूर्ण जीवन चक्र के लिए एक विकशील फ्रेमवर्क है—डेटा संग्रह और मॉडल प्रशिक्षण से पुष्टीकरण, डिप्लॉयमेंट और वास्तविक दुनिया के ट्रैकिंग तक। प्रत्येक मोड का एक विशेष उद्देश्य होता है और आपको विभिन्न कार्यों और यूज-केस के लिए आवश्यक लचीलापन और कार्यक्षमता प्रदान करने के लिए बनाया जाता है।
!!! Note
🚧 हमारी बहुभाषीय दस्तावेज़ीकरण वर्तमान में निर्माणाधीन है, और हम इसे सुधारने के लिए कड़ी मेहनत कर रहे हैं। आपकी सहनशीलता के लिए धन्यवाद! 🙏
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/j8uQc0qB91s?si=dhnGKgqvs7nPgeaM"
title="YouTube वीडियो प्लेयर" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> Ultralytics मोड ट्यूटोरियल: प्रशिक्षण, पुष्टीकरण, पूर्वावलोकन, निर्यात और बेंचमार्किंग।
</p>
### एक पल मोडें
Ultralytics YOLOv8 के समर्थित **मोड** को समझना आपके मॉडल का अधिकतम उपयोग करने के लिए महत्वपूर्ण है:
- **प्रशिक्षण** मोड: अपने मॉडल को कस्टम या पूर्व-भर्ती डेटासेट में संशोधित करें।
- **पुष्टीकरण** मोड: मॉडल प्रदर्शन को मान्यता प्राप्त करने के लिए प्रशिक्षण के बाद के चेकप्वाइंट का उपयोग करें।
- **पूर्वावलोकन** मोड: नए छवियों या वीडियो का उपयोग करके प्रशिक्षित YOLOv8 मॉडल के माध्यम से पूर्वानुमान करें।
- **निर्यात** मोड: डिप्लॉयमेंट के लिए मॉडल को विभिन्न प्रारूपों में तैयार करें।
- **ट्रैक** मोड: रीयल-टाइम ट्रैकिंग अनुप्रयोगों में योजित आइटम डिटेक्शन मॉडल का विस्तार करें।
- **बेंचमार्क** मोड: विविध डिप्लॉयमेंट वातावरणों में मॉडल की गति और सटीकता का विश्लेषण करें।
यह सामग्री आपको प्रत्येक मोड का अवलोकन और व्यावहारिक अंदाज़ देने का उद्देश्य रखती है, जिससे आप YOLOv8 की पूरी क्षमता का उपयोग कर सकें।
## [प्रशिक्षण](train.md)
प्रशिक्षण मोड का उपयोग कस्टम डेटासेट पर YOLOv8 मॉडल के प्रशिक्षण के लिए किया जाता है। इस मोड में, मॉडल को निर्दिष्ट डेटासेट और हाइपरपैरामीटर का उपयोग करके प्रशिक्षित किया जाता है। प्रशिक्षण प्रक्रिया में, मॉडल के पैरामीटरों को अनुकूलित किया जाता है ताकि यह छवियों में ऑब्जेक्टों की कक्षाओं और स्थानों का सटीक पूर्वानुमान कर सके।
[प्रशिक्षण उदाहरण](train.md){ .md-button .md-button--primary}
## [पुष्टीकरण](val.md)
पुष्टीकरण मोड का उपयोग YOLOv8 मॉडल के प्रशिक्षण के बाद मॉडल की मान्यता और सामान्यीकरण प्रदर्शन को मापने के लिए किया जाता है। इस मोड में, मॉडल को एक प्रमाणीकरण सेट पर मूल्यांकन किया जाता है ताकि उसकी सटीकता और सामान्यीकरण प्रदर्शन को मापा जा सके। इस मोड का उपयोग मॉडल के प्रदर्शन को सुधारने के लिए मॉडल के हाइपरपैरामीटरों को ट्यून करने के लिए किया जा सकता है।
[पुष्टीकरण उदाहरण](val.md){ .md-button .md-button--primary}
## [पूर्वानुमान](predict.md)
पूर्वानुमान मोड का उपयोग नई छवियों या वीडियो पर प्रशिक्षित YOLOv8 मॉडल का उपयोग करके पूर्वानुमान बनाने के लिए किया जाता है। इस मोड में, मॉडल एक चेकप्वाइंट फ़ाइल से लोड किया जाता है, और उपयोगकर्ता छवियों या वीडियों को उपयोग करके इन्फेरेंस कर सकता है। मॉडल उपयोगकर्ता को इनपुट छवियों या वीडियों में ऑब्जेक्टों की कक्षाओं और स्थानों का पूर्वानुमान करता है।
[पूर्वानुमान उदाहरण](predict.md){ .md-button .md-button--primary}
## [निर्यात](export.md)
निर्यात मोड का उपयोग एक YOLOv8 मॉडल को इस्तेमाल करने के लिए एक प्रारूप में करने के लिए किया जाता है जो कि अन्य सॉफ़्टवेयर अनुप्रयोगों या हार्डवेयर उपकरणों द्वारा इस्तेमाल किया जा सकता है। यह मोडल को उत्पादन उद्योगों में डिप्लॉय करने के लिए उपयोगी होता है।
[निर्यात उदाहरण](export.md){ .md-button .md-button--primary}
## [ट्रैक](track.md)
ट्रैक मोड का उपयोग एक YOLOv8 मॉडल का उपयोग करके वास्तविक समय में वस्तुओं का ट्रैकिंग करने के लिए किया जाता है। इस मोड में, मॉडल एक चेकप्वाइंट फ़ाइल से लोड किया जाता है, और उपयोगकर्ता एक लाइव वीडियो स्ट्रीम प्रदान कर सकता है ताकि वास्तविक समय में वस्तुओं का ट्रैकिंग किया जा सके। यह मोड सतर्कता प्रणालियों या स्वयं चालित कार जैसे अनुप्रयोगों के लिए उपयोगी होता है।
[ट्रैक उदाहरण](track.md){ .md-button .md-button--primary}
## [बेंचमार्क](benchmark.md)
बेंचमार्क मोड का उपयोग YOLOv8 के विभिन्न निर्यात प्रारूपों की गति और सटीकता का प्रोफ़ाइल बनाने के लिए किया जाता है। बेंचमार्क से प्राप्त जानकारी निर्यात प्रारूप के आकार, उसकी `mAP50-95` metric (ऑब्जेक्ट डिटेक्शन, सेगमेंटेशन और पोज़ के लिए)
या `accuracy_top5` metric (वर्गीकरण के लिए), और चित्र माध्यमिक समय के मिलीसेकंड प्रति इमेज के अलग-अलग निर्यात प्रारूपों की जानकारी प्रदान करता है। यह जानकारी उपयोगकर्ताओं को उनकी विशेष उपयोग के मामले में उनकी खासियतों के लिए मिति और सटीकता के लिए सर्वोत्तम निर्यात प्रारूप का चयन करने में मदद कर सकती है।
[बेंचमार्क उदाहरण](benchmark.md){ .md-button .md-button--primary}

226
docs/hi/modes/predict.md Normal file
View file

@ -0,0 +1,226 @@
---
comments: true
description: योलोवी 8 के अल्ट्रालायटिक्स पूर्वानुमान मोड का उपयोग करना सीखें और विभिन्न कार्यों के लिए विभिन्न पूर्वानुमान स्रोतों के बारे में जानें। इमेजेस, वीडियोज़ और डेटा प्रारूपों जैसे पूर्वानुमान स्रोतों के बारे में जानें।
keywords: Ultralytics, YOLOv8, पूर्वानुमान मोड, पूर्वानुमान स्रोत, पूर्वानुमान कार्य, धारणा योजना, छवि प्रसंस्करण, वीडियो प्रसंस्करण, मशीन लर्निंग, एआई
---
# अल्ट्रालायटिक्स YOLO मॉडल पूर्वानुमान
<img width="1024" src="https://github.com/ultralytics/assets/raw/main/yolov8/banner-integrations.png" alt="अल्ट्रालायटिक्स YOLO संघटना और एकीकरण">
## परिचय
मशीन लर्निंग और कंप्यूटर विजन की दुनिया में दृश्यांश से समझने की प्रक्रिया को 'पूर्वानुमान' या 'पूर्वानुमान' कहा जाता है। अल्ट्रालायटिक्स YOLOv8 एक शक्तिशाली विशेषता प्रदान करता है जिसे **पूर्वानुमान मोड** कहा जाता है, जो व्यापक डेटा स्रोतों पर उच्च प्रदर्शन, वास्तुकालिक पूर्वानुमान के लिए विशेष रूप से तैयार किया गया है।
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/QtsI0TnwDZs?si=ljesw75cMO2Eas14"
title="YouTube video player" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> अल्ट्रालायटिक्स YOLOv8 मॉडल से आउटपुट निकालने का तरीका कस्टम परियोजनाओं के लिए।
</p>
## वास्तविक जगत में अनुप्रयोग
| विनिर्माण | खेल संघ | सुरक्षा |
|:-------------------------------------------:|:--------------------------------------------------:|:---------------------------------------------:|
| ![वाहन के पुर्जे डिटेक्शन][car spare parts] | ![फुटबॉल खिलाड़ी डिटेक्शन][football player detect] | ![लोगों का गिरना डिटेक्शन][human fall detect] |
| वाहन के पुर्जे डिटेक्शन | फुटबॉल खिलाड़ी डिटेक्शन | लोगों का गिरना |
## पूर्वानुमान के लिए अल्ट्रालायटिक्स YOLO का उपयोग क्यों करें?
यहां आपको योलोवी 8 के पूर्वानुमान मोड का उपयोग अपने विभिन्न पूर्वानुमान की आवश्यकताओं के लिए करना चाहिए का कारण है:
- **बहुमुखीपन:** छवियों, वीडियोज और यह तक कि लाइव स्ट्रीम की पूर्वानुमान पर योग्य हैं।
- **प्रदर्शन:** मुख्यतः बिना सटीकता पर बलवर्धित, रियल-टाइम, उच्च गति प्रसंस्करण के लिए engineering किए गए हैं।
- **उपयोग सहज:** खद्य पाइथन और यथार्थता (CLI) इंटरफ़ेसों को जल्दी विपणन और परीक्षण के लिए।
- **ऊच्चतम अनुकूलनयोग्यता:** अपनी विशिष्ट आवश्यकताओं के अनुसार मॉडल के पूर्वानुमान कृति को निर्धारित करने के लिए विभिन्न सेटिंग और पैरामीटर।
### पूर्वानुमान मोड की प्रमुख सुविधाएँ
YOLOv8 का पूर्वानुमान मोड मजबूत और विशेषता प्राप्त करने के लिए डिज़ाइन किया गया है, जिसमें शामिल हैं:
- **यदि आपके डेटा के कई स्रोतों के पंजीकरण:** चाहे आपका डेटा व्यक्तिगत छवियों, छोटू माला छवियों, वीडियो फ़ाइलों या वास्तविक समय वीडियो स्ट्रीमों की रूप में हो, पूर्वानुमान मोड आपके लिए उपयुक्त है।
- **स्ट्रीमिंग मोड:** `स्ट्रीमिंग` सुविधाका उपयोग करें और `पूर्वानुमान की कॉल विधि` में `स्ट्रीम = ट्रू` सेट करके `रिजल्ट्स` ऑब्जेक्ट के एक मेमोरी-पर्याप्त जेनरेटर का उत्पादन करें।
- **बैच प्रोसेसिंग:** एक ही बैच में कई छवियों या वीडियो फ़्रेम्स की प्रोसेसिंग करने की क्षमता, पूर्वानुमान समय को और तेज़ करती है।
- **इंटीग्रेशन फ्रेंडली:** लचीली API के कारण मौजूदा डेटा पाईपलाइन और अन्य सॉफ़्टवेयर घटकों के साथ आसानी से इंटीग्रेट करें।
जब पूर्वानुमान के दौरान मॉडल को `गेनरेटर की `रूप में लोड किया जाता है, तो अल्ट्रालायटिक्स YOLO मॉडल निम्नलिखित मेथड से `रिजल्ट` ऑब्जेक्ट के एक पायथन सूची या यादृच्छिक संख्यकारी जनरेटर लौटाते हैं:
!!! Example "पूर्वानुमान"
=== "`स्ट्रीम = फाल्स` के साथ सूची यादृच्छिक"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('yolov8n.pt') # पूर्व-प्रशिक्षित YOLOv8n मॉडल
# सूची के लिए बैच्ड पूर्वानुमान चलाएं
results = model(['im1.jpg', 'im2.jpg']) # रिजल्ट्स ऑब्जेक्ट की सूची लौटाएँ
# परिणाम सूची को प्रोसेस करें
for result in results:
boxes = result.boxes # बॉक्स के लिए बॉक्स ऑब्जेक्ट
masks = result.masks # सेगमेंटेशन मोड के लिए मास्क्स ऑब्जेक्ट
keypoints = result.keypoints # पोज़ के लिए कीपॉइंट्स ऑब्जेक्ट
probs = result.probs # वर्गीकरण के लिए प्रोब्स ऑब्जेक्ट
```
=== "`स्ट्रीम = ट्रू के साथ जेनरेटर` की प्राथमिकता"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('yolov8n.pt') # पूर्व-प्रशिक्षित YOLOv8n मॉडल
# सूची के लिए बैच्ड पूर्वानुमान चलाएं
results = model(['im1.jpg', 'im2.jpg'], stream=True) # रिजल्ट्स ऑब्जेक्ट का जनरेटर लौटाएँ
# रिजल्ट्स जनरेटर को प्रोसेस करें
for result in results:
boxes = result.boxes # बॉक्स के लिए बॉक्स ऑब्जेक्ट
masks = result.masks # सेगमेंटेशन मास्क्स के लिए मास्क्स ऑब्जेक्ट
keypoints = result.keypoints # पोज़ के लिए कीपॉइंट्स ऑब्जेक्ट
probs = result.probs # वर्गीकरण के लिए प्रोब्स ऑब्जेक्ट
```
## पूर्वानुमान स्रोत
YOLOv8 पूर्वानुमान के लिए विभिन्न प्रकार के इनपुट स्रोतों को process कर सकता है, जैसा कि नीचे दिए गए तालिका में दिखाया गया है। स्रोतों में स्थिर छवियाँ, वीडियो स्ट्रीम्स, और विभिन्न डेटा प्रारूपों को विकास के साथ उपयोग किया जा सकता है। यह तालिका भी इंगित करती है कि क्या प्रत्येक स्रोत को स्ट्रीमिंग मोड में `द्वारा इस्तेमाल किया जा सकता है।' यहां स्ट्रीमिंग मोड का उपयोग वीडियो या लाइव स्ट्रीम को प्रोसेस करने के लिए उपयोगी है क्योंकि इसमें सभी फ्रेम्स को मेमोरी में लोड किए बिना एक रिजल्ट की generator बनाई जाती है।
!!! Tip "सुझाव"
`स्ट्रीम = ट्रू` का उपयोग बड़ी वीडियोज़ या विशाल डेटासेट को संचालित करने के लिए करें ताकि मेमोरी का दक्षिणा प्रबंधित किया जा सके। `स्ट्रीम = फाल्स` के खंड के खंड में सभी फ्रेम्स या डेटा बिंदुओं के लिए परिणाम स्तोर किए जाते हैं, जो अधिकांशता में मेमोरी में लोड हो सकते हैं और बड़े इनपुट के लिए आउट-ऑफ-मेमोरी त्रुटियां उत्पन्न कर सकते हैं। इसके बराबर उपयोग करके `स्ट्रीम= True` एक जेनरेटर का उपयोग करता है, जिसके संचित होने वाले
केवल ब्रह्मण्ड के परिणामों को सीमित संग्रह किया जाता है, बहुत कम मेमोरी खपत करता है और बड़े इनपुट के लिए आउट ऑफमेमोरीनुमान syllabus नुकसान होने से बचाता है।
| स्रोत | तर्क | प्रकार | टिप्पणियाँ |
|-----------------|-------------------------------------------|---------------|-------------------------------------------------------------------------------------------------------------|
| छवि | `'छवि.जेपीजी'` | `श. या पथ` | एकल छवि फ़ाइल। |
| यूआरएल | `'https://ultralytics.com/छवि/बस.जेपीजी'` | `शः` | छवि होस्टेड रिमोटली उन्नत करने के लिए यूआरएल । |
| स्क्रीनशॉट | `'स्क्रीन'` | `शः` | स्क्रीन की वर्तमान सामग्री के रूप में कैप्चर । |
| आदर्श | `इमेज.ओपन('चित्र.जेपीजी')` | `पीआईएल.इमेज` | HWC format with RGB channels। |
| ओपनसीवी | `ओपेंसीवी.इमरेड('चित्र.जेपीजी')` | `एनपी.न्डआरे` | HWC format with BGR channels `uint8 (0-255)`। |
| नम्पी | `नपाई.जीरोस((640,1280,३))` | `एनपी.नडअरे` | HWC format with BGR channels `uint8 (0-255)`। |
| टॉर्च | `टॉर्च.जीरोस(16,3,320,640)` | `टॉर्च.टेंसर` | BCHW format with RGB channels `float32 (0.0-1.0)`। |
| सीएसवी | `'स्रोत.सीएसवी'` | `शः` or `पथ` | छवियों, वीडियोज़, या निर्देशिकाओं की पथों को समेटने वाली CSV फ़ाइल। |
| वीडियो ✅ | `'वीडियो.म्प४'` | `पथ` or `पथ` | MP4, AVI, आदि जैसे वीडियो फ़ाइल में वीडियो। |
| निर्देशिका ✅ | `'पथ/'` | `शः` or `पथ` | छवियों या वीडियोज़ को समेटने वाली एक निर्देशिका का पथ। |
| ग्लॉब ✅ | `'पथ/ *.जेपीजी'` | `शः` | एकाधिक फ़ाइलों के मिलते-जुलते गोलियाँ। वाइल्डकार्ड के रूप में `*` चरित्र का उपयोग करें। |
| यूट्यूब ✅ | `'https://youtu.be/LNwODJXcvt4'` | `शः` | एक यूट्यूब वीडियो के लिए यूआरएल। |
| स्ट्रीम ✅ | `'rtsp://माद्यदिनता.कॉम/media.म्प४'` | `शः` | RTSP, RTMP, TCP या IP पते जैसे स्ट्रीमिंग प्रोटोकॉल्स के लिए पता। |
| मल्टी-स्ट्रीम ✅ | `'सूची.स्ट्रीम्स'` | `शः` or `पथ` | प्रति पंक्ति एक स्ट्रिम URL के साथ `*.streams` पाठ फ़ाइल, उदाहरण के लिए 8 स्ट्रीम 8 बैच-आकार के साथ चलेंगे। |
लेखक आदान प्रियतमानसों का सुझाव देते हैं:
!!! Example "पूर्वानुमान स्रोत"
=== "छवि"
एक छवि फ़ाइल पर पूर्वानुमान चलाएं।
```python
from ultralytics import YOLO
# पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
model = YOLO('yolov8n.pt')
# छवि फ़ाइल के लिए पथ निर्धारित करें
स्रोत = 'फाईल/पर/चित्र.jpg'
# छवि पर पूर्वानुमान चलाएं
परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
# परिणाम सूची को प्रोसेस करें
for परिणाम in परिणाम:
बॉक्स = परिणाम.बॉक्स # बॉक्स आउटपुट्स के लिए बॉक्स ऑब्जेक्ट
मास्क्स = परिणाम.मास्क्स # सेगमेंटेशन मास्क्स आउटपुट्स के लिए मास्क्स ऑब्जेक्ट
कीपॉइंट्स = परिणाम.कीपॉइंट्स # पोज के लिए कीपॉइंट्स ऑब्जेक्ट
प्रोब्स = परिणाम.प्रोब्स # वर्गीकरण आउटपुट्स के लिए प्रोब्स ऑब्जेक्ट
```
=== "स्क्रीनशॉट"
वर्तमान स्क्रीन सामग्री पर पूर्वानुमान चलाएं।
```python
from ultralytics import YOLO
# पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
model = YOLO('yolov8n.pt')
# वर्तमान स्क्रीन सामग्री को स्रोत रूप में परिभाषित करें
स्रोत = 'स्क्रीन'
# वर्तमान सामग्री पर पूर्वानुमान चलाएं
परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
```
=== "यूआरएल"
दूरस्थ छवि या वीडियो पर पूर्वानुमान चलाएं।
```python
from ultralytics import YOLO
# पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
model = YOLO('yolov8n.pt')
# गहनर् रूप से निर्धारित दूरस्थ छवि या वीडियो की यूआरएल
स्रोत = 'https://ultralytics.com/छवि/बस.जेपीजी'
# यूआरएल पर पूर्वानुमान चलाएं
परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
```
=== "आदर्श"
Python Imaging Library (PIL) के साथ खोली गई छवि पर पूर्वानुमान चलाएं।
```python
from PIL import Image
from ultralytics import YOLO
# पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
model = YOLO('yolov8n.pt')
# Python Imaging Library (PIL) के साथ खोली गई छवि
स्रोत = Image.open('छवि.जेपीजी')
# आदर्श पर पूर्वानुमान चलाएं
परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
```
=== "ओपेंसीवी"
OpenCV के साथ पढ़ी गई छवि पर पूर्वानुमान चलाएं।
```python
import cv2
from ultralytics import YOLO
# पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
model = YOLO('yolov8n.pt')
# OpenCV के साथ पढ़ी गई छवि
स्रोत = cv2.imread('छवि.जेपीजी')
# ओपेंसीवी पर पूर्वानुमान चलाएं
परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
```
=== "नम्पी"
numpy array के रूप में प्रस्तुत छवि पर पूर्वानुमान चलाएं।
```python
import numpy as np
from ultralytics import YOLO
# पूर्व-प्रशिक्षित YOLOv8n मॉडल लोड करें
model = YOLO('yolov8n.pt')
# छवि रूप में एक हिंदी छवि को बनाएँ
स्रोत = np.zeros((640, 640, 3))
# नम्पी पर पूर्वानुमान चलाएं
परिणाम = model(स्रोत) # रिजल्ट्स ऑब्जेक्ट की सूची
```
[वाहन के पुर्जे डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a0f802a8-0776-44cf-8f17-93974a4a28a1
[फुटबॉल खिलाड़ी डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/7d320e1f-fc57-4d7f-a691-78ee579c3442
[लोगों का गिरना डिटेक्शन]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/86437c4a-3227-4eee-90ef-9efb697bdb43

358
docs/hi/modes/track.md Normal file
View file

@ -0,0 +1,358 @@
---
comments: true
description: वीडियो स्ट्रीम में आवक ट्रेक करने के लिए Ultralytics YOLO का उपयोग कैसे करें। ट्रैकर्स का उपयोग करने और ट्रैकर कॉन्फ़िगरेशन को अनुकूलित करने के लिए गाइड।
keywords: Ultralytics, YOLO, आवक ट्रैकिंग, वीडियो स्ट्रीम, BoT-SORT, ByteTrack, पायथन गाइड, CLI गाइड
---
# Ultralytics YOLO के साथ मल्टी-ऑब्जेक्ट ट्रैकिंग
<img width="1024" src="https://user-images.githubusercontent.com/26833433/243418637-1d6250fd-1515-4c10-a844-a32818ae6d46.png" alt="Multi-object tracking examples">
वीडियो एनालिटिक्स के क्षेत्र में, ऑब्जेक्ट ट्रैकिंग एक महत्वपूर्ण कार्य है जो केवल फ्रेम में वस्तुओं के स्थान और वर्ग की पहचान करने के अलावा वीडियो के प्रगति के साथ-साथ प्रत्येक खोजी गई वस्तु के लिए एक अद्वितीय आईडी बनाए रखता है। इसके अनुप्रयोग हैं असीमित—निगरानी और सुरक्षा से लेकर रियल-टाइम स्पोर्ट्स एनालिटिक्स तक।
## ऑब्जेक्ट ट्रैकिंग के लिए Ultralytics YOLO क्यों चुनें?
Ultralytics ट्रैकरों से उत्पन्न परिणाम मानक ऑब्जेक्ट डिटेक्शन के साथ मेल खाते हैं, लेकिन वीडियो स्ट्रीम में ऑब्जेक्टों को ट्रैक करने और उपयोगी गणना करने में आसान हो जाता है। यहाँ आपको Ultralytics YOLO का उपयोग अपनी ऑब्जेक्ट ट्रैकिंग की जरूरतों के लिए करने की सलाह दी जा रही है:
- **प्रदर्शनशीलता:** सटीकता के मामले में समय-सत्य ही होने के साथ वीडियो स्ट्रीम को प्रक्रिया करें।
- **लचीलापन:** विभिन्न ट्रैकिंग ऍल्गोरिदम और विन्यास पर समर्थन करें।
- **उपयोग करने में आसानी:** झटपट एकीकरण और डिप्लॉय करने के लिए सरल पायथन API और CLI विकल्प।
- **कस्टमाइज़ेबिलिटी:** कस्टम ट्रेन किए गए YOLO मॉडल के साथ उपयोग में आसान, जिससे डोमेन-विशिष्ट एप्लिकेशन में समावेश करना संभव होता है।
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/hHyHmOtmEgs?si=VNZtXmm45Nb9s-N-"
title="YouTube video player" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> Ultralytics YOLOv8 के साथ ऑब्जेक्ट डिटेक्शन और ट्रैकिंग।
</p>
## वास्तविक दुनिया के अनुप्रयोग
| परिवहन | खुदराबाज़ार | जलजीवाणुजनित उत्पादन |
|:-------------------------------:|:-----------------------------:|:----------------------------:|
| ![वाहन ट्रैकिंग][vehicle track] | ![लोग ट्रैकिंग][people track] | ![मछली ट्रैकिंग][fish track] |
| वाहन ट्रैकिंग | लोग ट्रैकिंग | मछली ट्रैकिंग |
## विशेषताएँ एक झलक में
Ultralytics YOLO अपनी ऑब्जेक्ट डिटेक्शन विशेषताओं को बढ़ाकर मज़बूत और बहुमुखी ऑब्जेक्ट ट्रैकिंग प्रदान करता है:
- **रीयल-टाइम ट्रैकिंग:** उच्च फ्रेम दर वाले वीडियो में समयबद्ध रूप से ऑब्जेक्ट्स को ट्रैक करें।
- **एकाधिक ट्रैकर समर्थन:** इस्थापित ट्रैकिंग ऍल्गोरिदमों में से एक चुनें।
- **कस्टमाइज़ेबल ट्रैकर कॉन्फ़िगरेशन:** विभिन्न पैरामीटर्स को समायोजित करके विशेष आवश्यकताओं को पूरा करने के लिए ट्रैकिंग ऍल्गोरिदम को अनुकूलित करें।
## उपलब्ध ट्रैकर्स
Ultralytics YOLO निम्नलिखित ट्रैकिंग ऍल्गोरिदमों का समर्थन करता है। आप इन्हें योग्य YAML कॉन्फ़िगरेशन फ़ाइल (`tracker=tracker_type.yaml`) पारित करके सक्षम कर सकते हैं:
* [BoT-SORT](https://github.com/NirAharon/BoT-SORT) - इस ट्रैकर को सक्षम करने के लिए `botsort.yaml` का उपयोग करें।
* [ByteTrack](https://github.com/ifzhang/ByteTrack) - इस ट्रैकर को सक्षम करने के लिए `bytetrack.yaml` का उपयोग करें।
डिफ़ॉल्ट ट्रैकर BoT-SORT है।
## ट्रैकिंग
वीडियो स्ट्रीम्स पर ट्रैकर चलाने के लिए, YOLOv8n, YOLOv8n-seg और YOLOv8n-pose जैसे प्रशिक्षित Detect, Segment या Pose मॉडल का उपयोग करें।
!!! Example "उदाहरण"
=== "पायथन"
```python
from ultralytics import YOLO
# एक आधिकारिक या कस्टम मॉडल लोड करें
model = YOLO('yolov8n.pt') # एक आधिकारिक Detect मॉडल लोड करें
model = YOLO('yolov8n-seg.pt') # एक आधिकारिक Segment मॉडल लोड करें
model = YOLO('yolov8n-pose.pt') # एक आधिकारिक Pose मॉडल लोड करें
model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें
# मॉडल के साथ ट्रैकिंग करें
results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True) # डिफ़ॉल्ट ट्रैकर के साथ ट्रैकिंग करें
results = model.track(source="https://youtu.be/LNwODJXcvt4", show=True, tracker="bytetrack.yaml") # ByteTrack ट्रैकर के साथ ट्रैकिंग करें
```
=== "CLI"
```बैश
# CLI के साथ विभिन्न मॉडल के साथ ट्रैकिंग करें
योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक डिटेक्ट मॉडल
योलो ट्रैक मॉडल=yolov8n-seg.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक सेगमेंट मॉडल
योलो ट्रैक मॉडल=yolov8n-pose.pt स्रोत="https://youtu.be/LNwODJXcvt4" # आधिकारिक पोज मॉडल
योलो ट्रैक मॉडल=path/to/best.pt स्रोत="https://youtu.be/LNwODJXcvt4" # कस्टम प्रशिक्षित मॉडल
# ByteTrack ट्रैकर का उपयोग करें
योलो ट्रैक मॉडल=path/to/best.pt ट्रैकर="bytetrack.yaml"
```
ऊपर के उपयोग में उंगलियों के निचले हिस्से के द्वारा ट्रैकिंग उपलब्ध है सभी डिटेक्ट, सेगमेंट और पोज मॉडल्स के लिए जो वीडियो या स्ट्रीमिंग स्रोत पर चला जा सकते हैं।
## कॉन्फ़िगरेशन
### ट्रैकिंग आर्ग्युमेंट्स
ट्रैकिंग कॉन्फ़िगरेशन, जैसे कि `conf`, `iou` और `show`, ने प्रेडिक्शन मोड के साथ गुणों को साझा करता है। और विन्यास करने के लिए, कृपया [प्रेडिक्शन](../modes/predict.md#inference-arguments) मॉडल पृष्ठ पर संदर्भ करें।
!!! Example "उदाहरण"
=== "पायथन"
```python
from ultralytics import YOLO
# ट्रैकिंग पैरामीटर आवंटन करें और ट्रैकर चलाएं
model = YOLO('yolov8n.pt')
results = model.track(source="https://youtu.be/LNwODJXcvt4", conf=0.3, iou=0.5, show=True)
```
=== "CLI"
```बैश
# कमांड लाइन इंटरफेस का उपयोग करें ट्रैकिंग पैरामीटर कॉन्फ़िगर करें और ट्रैकर चलाएं
योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" conf=0.3, iou=0.5 show
```
### ट्रैकर चयन
Ultralytics आपको एक संशोधित ट्रैकर कॉन्फ़िगरेशन फ़ाइल का उपयोग करने की भी अनुमति देता है। ऐसा करने के लिए, बस [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) से एक ट्रैकर कॉन्फ़िगरेशन फ़ाइल (जैसे `custom_tracker.yaml`) की एक प्रतिलिपि बनाएँ और किसी भी विन्यास को संशोधित करें ( `tracker_type` को छोड़कर) अपनी जरूरतों के अनुसार।
!!! Example "उदाहरण"
=== "पायथन"
```python
from ultralytics import YOLO
# मॉडल लोड करें और एक कस्टम कॉन्फ़िगरेशन फ़ाइल के साथ ट्रैकर चलाएं
model = YOLO('yolov8n.pt')
results = model.track(source="https://youtu.be/LNwODJXcvt4", tracker='custom_tracker.yaml')
```
=== "CLI"
```बैश
# ट्रैकर के साथ एक कस्टम कॉन्फ़िगरेशन फ़ाइल का उपयोग करके मॉडल लोड करें और ट्रैकर चलाएं
योलो ट्रैक मॉडल=yolov8n.pt स्रोत="https://youtu.be/LNwODJXcvt4" tracker='custom_tracker.yaml'
```
ट्रैकिंग आर्ग्युमेंट्स की एक व्यापक सूची के लिए, [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) पेज पर संदर्भ करें।
## पायथन उदाहरण
### ट्रैक पर्सिस्ट करना
यहाँ एक Python स्क्रिप्ट है जो OpenCV (`cv2`) और YOLOv8 का उपयोग करके वीडियो फ़्रेम पर ऑब्जेक्ट ट्रैकिंग चलाने के लिए है। इस स्क्रिप्ट में यह मान लिया गया है कि आपने पहले ही आवश्यक पैकेज (`opencv-python` और `ultralytics`) इंस्टॉल कर लिए हैं। `persist=True` आर्ग्युमेंट ये ट्रैकर को बताता है कि मौजूदा इमेज या फ़्रेम उन अनुसरण तथ्यों के लिए होता है जो पिछले इमेज में से बनाए गए होते हैं।
!!! Example "ट्रैकिंग के लिए स्ट्रीमिंग फ़ोर-लूप"
```python
import cv2
from ultralytics import YOLO
# YOLOv8 मॉडल लोड करें
model = YOLO('yolov8n.pt')
# वीडियो फ़ाइल खोलें
video_path = "path/to/video.mp4"
cap = cv2.VideoCapture(video_path)
# वीडियो फ़्रेम्स पर लूप चलाएं
while cap.isOpened():
# वीडियो से एक फ्रेम पढ़ें
success, frame = cap.read()
if success:
# फ्रेम पर YOLOv8 ट्रैकिंग चलाएं, फ़्रेम के बीच ट्रैक पर्सिस्ट करता है
results = model.track(frame, persist=True)
# परिणामों को फ़्रेम पर दिखाएं
annotated_frame = results[0].plot()
# ट्रैक करें फ़्रेम को प्रदर्शित करें
cv2.imshow("YOLOv8 ट्रैकिंग", annotated_frame)
# 'q' दबाएं तो फ़्रेम से बाहर निकलें
if cv2.waitKey(1) & 0xFF == ord("q"):
break
else:
# वीडियो के अंत तक पहुँचने पर भी फ़्रेम से बाहर निकलें
break
# वीडियो कैप्चर ऑब्जेक्ट छोड़ें और प्रदर्शन विंडो बंद करें
cap.release()
cv2.destroyAllWindows()
```
मैने फ़्रेम से ट्रैकिंग के लिए 'model(frame)' से 'model.track(frame)' में बदलाव किया है, जो साधारण डिटेक्शन की बजाय ऑब्जेक्ट ट्रैकिंग को सक्षम करता है। यह संशोधित स्क्रिप्ट प्रति फ़्रेम वाली वीडियो पर ट्रैकर चलाएगा, परिणामों को दिखाएगा और एक विंडो में दिखाएगा। 'q' दबाने पर फ़्रेम से बाहर निकला जा सकता है।
### समय के साथ ट्रैक चित्रित करना
संबंधित वीडियो फ्रेम पर ऑब्जेक्ट ट्रैक्स को प्लॉट करके समान्तर स्थानीय मार्गों को प्रदर्शित करने से हमें चित्रित पथ के माध्यम से पहले के अंतरालों और पतों की आपूर्ति में मूल्यवान प्रेरणा मिल सकती है। Ultralytics YOLOv8 के साथ समय के साथ ट्रैक्स को प्लॉट करना एक चुस्त और कुशल प्रक्रिया है।
निम्न उदाहरण में, हम दिखाए गए वीडियो फ्रेम्स पर YOLO मॉडल का उपयोग करके विभिन्न ऑब्जेक्ट की गति को चित्रित करने के लिए कैसे करेंगे। यह स्क्रिप्ट एक वीडियो फ़ाइल को खोलता है, फ्रेम दर फ्रेम यह पढ़ता है, और YOLO मॉडल का उपयोग करके विभिन्न ऑब्जेक्ट की पहचान और ट्रैक करता है। पहचान वाले बॉक्स के केंद्रीय प्रांक्तियों को संवेदी करके उन्हें जोड़ते हैं, हम ट्रैक किए गए वस्तुओं द्वारा फ़ालतू की जगहों को चूंकियों का संग्रहित करने के लिए लाइनें खींच सकते हैं।
!!! Example "कई वीडियो फ़्रेम्स पर पथ चित्रित करना"
```python
from collections import defaultdict
import cv2
import numpy as np
from ultralytics import YOLO
# YOLOv8 मॉडल लोड करें
model = YOLO('yolov8n.pt')
# वीडियो फ़ाइल खोलें
video_path = "path/to/video.mp4"
cap = cv2.VideoCapture(video_path)
# ट्रैक इतिहास को संग्रहीत करें
track_history = defaultdict(lambda: [])
# वीडियो फ्रेम्स पर लूप चलाएं
while cap.isOpened():
# वीडियो से एक फ्रेम पढ़ें
success, frame = cap.read()
if success:
# फ्रेम पर YOLOv8 ट्रैकिंग चलाएं, फ़्रेम के बीच ट्रैक पर्सिस्ट करता है
results = model.track(frame, persist=True)
# बॉक्स और ट्रैक आईडी प्राप्त करें
boxes = results[0].boxes.xywh.cpu()
track_ids = results[0].boxes.id.int().cpu().tolist()
# रिज़ल्ट पर विजुअलाइज़ करें
annotated_frame = results[0].plot()
# पथ चित्रित करें
for box, track_id in zip(boxes, track_ids):
x, y, w, h = box
track = track_history[track_id]
track.append((float(x), float(y))) # x, y centre point
if len(track) > 30: # 90 फ़्रेम्स के लिए 90 ट्रैक्स को जमा करें
track.pop(0)
# ट्रैकिंग लाइनें खींचें
points = np.hstack(track).astype(np.int32).reshape((-1, 1, 2))
cv2.polylines(annotated_frame, [points], isClosed=False, color=(230, 230, 230), thickness=10)
# पथ को प्रदर्शित करें
cv2.imshow("YOLOv8 ट्रैकिंग", annotated_frame)
# 'q' दबायें तो फ़्रेम से बाहर निकलें
if cv2.waitKey(1) & 0xFF == ord("q"):
break
else:
# वीडियो के अंत तक पहुँचने पर भी फ़्रेम से बाहर निकलें
break
# वीडियो कैप्चर ऑब्जेक्ट छोड़ें और प्रदर्शन विंडो बंद करें
cap.release()
cv2.destroyAllWindows()
```
### मल्टीथ्रेड ट्रैकिंग
मल्टीथ्रेड ट्रैकिंग एक साथ कई वीडियो स्ट्रीमों पर ऑब्जेक्ट ट्रैकिंग चलाने की क्षमता प्रदान करता है। यह खासकर उपयोगी होता है जब हम कई निगरानी कैमरों से जैसे कि वहां से मौजूद वीडियो इनपुट को संभालने के लिए परस्पर प्रोसेसिंग करने की क्षमता बढ़ा सकते हैं।
प्रदान किए गए पायथन स्क्रिप्ट में हम Python के `threading` मॉड्यूल का उपयोग करके यह संभव करते हैं कि कई इंस्टेंसेज को एक साथ ट्रैकर चलाया जा सके। यह हर थ्रेड के लिए एक ट्रैकर चलाने की जिम्मेदारी होती है, और सभी थ्रेड संघ थ्रेड बैकग्राउंड में एक साथ चलते हैं।
हर थ्रेड को सही पैरामीटर्स (वीडियो फ़ाइल, उपयोग करने के लिए मॉडल और फ़ाइल इंडेक्स) प्राप्त करने के लिए, हम `run_tracker_in_thread` नामक एक फ़ंक्शन को परिभाषित करते हैं जो इन पैरामीटर्स को स्वीकार करता है और मुख्य ट्रैकिंग लूप को संबंधित करता है। यह फ़ंक्शन वीडियो फ्रेम्स को फ्रेम द्वारा पढकर, ट्रैकर चलाने और परिणामों को प्रदर्शित कर रही है।
इस उदाहरण में दो अलग मॉडल इस्तेमाल होते हैं: `yolov8n.pt` और `yolov8n-seg.pt`, जो हर एक अलग वीडियो फ़ाइल में ऑब्जेक्ट को ट्रैक करते हैं। वीडियो फाइल `video_file1` और `video_file2` में निर्दिष्ट किए गए हैं। `threading.Thread` में `daemon=True` विधिमति का उपयोग संकेत करता है कि यह सुनिश्चित करता है कि जब प्रमुख कार्यक्रम समाप्त हो जाए, तो ये सभी थ्रेड बंद हो जाएंगे। हम `start()` का उपयोग करके थ्रेडों को शुरू करते हैं और `join()` का उपयोग करके मुख्य थ्रेड को प्रतीक्षा करने के लिए बनाते हैं जब तक कि ट्रैकर थ्रेड खत्म नहीं हो जाते।
चूंकि सभी थ्रेडों ने अपना कार्य पूरा कर लिया है, इसलिए `cv2.destroyAllWindows()` का उपयोग करके परिणामों को दिखाने वाली विंडो को बंद करते हैं।
!!! Example "ट्रैकिंग के लिए स्ट्रीमिंग फ़ोर-लूप"
```python
import threading
import cv2
from ultralytics import YOLO
def run_tracker_in_thread(filename, model, file_index):
"""
थ्रेडिंग के साथ YOLOv8 मॉडल के साथ एक वीडियो फ़ाइल या webcam स्रोत संगतरूप पर ट्रैकर चलाता है।
यह फ़ंक्शन एक वेदनीय वीडियो फ़ाइल या कैमरा स्रोत से वीडियो फ़्रेमों को पकड़ता है और ऑब्जेक्ट ट्रैकिंग के लिए YOLOv8 मॉडल का उपयोग करता है। यह फ़ंक्शन अपनी थ्रेड में चलता है जो कार्य प्रसंस्करण के रूप में एक साथ चलता है।
Args:
filename (str): वीडियो फ़ाइल के पथ या कैमरे / बाहरी कैमरे स्रोत का पहचानकर्ता।
model (obj): YOLOv8 मॉडल ऑब्जेक्ट।
file_index (int): फ़ाइल को पहचानने के लिए ऐंद्रिक कोड।
ध्यान दें:
वीडियो डिस्प्ले विंडो बंद करने के लिए 'q' दबाएं।
"""
वीडियो = cv2.VideoCapture(filename) # वीडियो फ़ाइल पढ़ें
while True:
सफलता, फ़्रेम = वीडियो.read() # वीडियो फ़्रेम पढ़ें
# कोई भी फ़्रेम न बचा हो, तो लूप से बाहर निकलें
if not सफलता:
तोड़ो
तोड़ो
# ऑब्जेक्ट्स को ट्रैक करें यदि उपलब्ध हों
results = model.track(फ़्रेम, persist=True)
res_plotted = results[0].plot()
cv2.imshow(f"स्रोत_{file_index} पर ट्रैकिंग", res_plotted)
कुंजी = cv2.waitKey(1)
if कुंजी == ord('q'):
तोड़ो
# वीडियो स्रोतों को छोड़ें
वीडियो.रिलीज़े()
# मॉडल लोड करें
model1 = YOLO('yolov8n.pt')
model2 = YOLO('yolov8n-seg.pt')
# ट्रैकर के लिए वीडियो फ़ाइलें परिभाषित करें
video_file1 = "path/to/video1.mp4" # वीडियो फ़ाइल का पथ, वेबकैम के लिए 0
video_file2 = 0 # वीडियो फ़ाइल का पथ, वेबकैम के लिए 0, बाहरी कैमरा के लिए 1
# ट्रैकर थ्रेड सबसे ऊपर बनाएं
tracker_thread1 = threading.Thread(target=run_tracker_in_thread, args=(video_file1, model1, 1), daemon=True)
tracker_thread2 = threading.Thread(target=run_tracker_in_thread, args=(video_file2, model2, 2), daemon=True)
# ट्रैकर थ्रेड प्रारंभ करें
tracker_thread1.start()
tracker_thread2.start()
# ट्रैकर थ्रेड की प्रतीक्षा करें
tracker_thread1.join()
tracker_thread2.join()
# सभी ट्रैकर थ्रेडों के निपटाए जाने के बाद, परिणामों को प्रदर्शन विंडोज बंद करें
cv2.destroyAllWindows()
```
यह उदाहरण स्क्रिप्ट जोड़कर और इसी मार्गदर्शन का उपयोग करके और अधिक वीडियो फ़ाइल और मॉडल के लिए बाहरी थ्रेड बना कर इसे कार्यान्वित करने के लिए आसानी से विस्तारित किया जा सकता है।
## नए ट्रैकरों में सहयोग दें
क्या आप बहु-ऑब्जेक्ट ट्रैकिंग में माहिर हैं और उल्ट्रालिटिक्स YOLO के साथ एक ट्रैकिंग ऍल्गोरिदम को सफलतापूर्वक अमल में लाया है? हम आपको [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) में हमारे ट्रैकर खंड के लिए योगदान देने के लिए आमंत्रित करते हैं! आपका वास्तविक दुनिया के अनुप्रयोग और समाधान आपके समुदाय के लिए अमूल्य हो सकते हैं।
इस खंड में योगदान देकर, आप उल्ट्रालिटिक्स YOLO फ्रेमवर्क के भीतर उपलब्ध ट्रैकिंग समाधानों की विस्तारवादी सूची बढ़ा सकते हैं, जो उल्ट्रालिटिक्स YOLO माध्यम से काम कर रहे उपयोगकर्ताओं के लिए अत्यधिक समर्पणशीलता और उपयोगीता जोड़ते हैं।
अपनी योगदान की शुरुआत करने के लिए, कृपया हमारे [योगदान गाइड](https://docs.ultralytics.com/help/contributing) का संदर्भ लें जहां परामर्शिका प्रस्तुत करने के सचेत निर्देश दिए गए हैं। हम इंतजार कर रहे हैं देखें आप क्या लाते हैं!
साथ में, चलिए Ultralytics YOLO पारिस्थितिकी की गतिशीलता को मजबूत करें 🙏!
[वाहन ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/ee6e6038-383b-4f21-ac29-b2a1c7d386ab
[लोग ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/93bb4ee2-77a0-4e4e-8eb6-eb8f527f0527
[मछली ट्रैकिंग]: https://github.com/RizwanMunawar/ultralytics/assets/62513924/a5146d0f-bfa8-4e0a-b7df-3c1446cd8142

293
docs/hi/modes/train.md Normal file
View file

@ -0,0 +1,293 @@
---
comments: true
description: Ultralytics YOLO के साथ YOLOv8 मॉडल ट्रेन करने के लिए चरणबद्ध मार्गदर्शिका, एकल-GPU और बहु-GPU ट्रेनिंग के उदाहरणों के साथ।
keywords: Ultralytics, YOLOv8, YOLO, ऑब्जेक्ट डिटेक्शन, ट्रेन मोड, कस्टम डेटासेट, GPU ट्रेनिंग, बहु-GPU, हाइपरपैरामीटर, CLI उदाहरण, Python उदाहरण
---
# Ultralytics YOLO के साथ मॉडल ट्रेनिंग
<img width="1024" src="https://github.com/ultralytics/assets/raw/main/yolov8/banner-integrations.png" alt="Ultralytics YOLO इकोसिस्टम और इंटीग्रेशन">
## परिचय
एक गहरी यान्त्रिकी मॉडल को ट्रेनिंग देना उसे डेटा खिलाते हुए और इसके पैरामीटर्स को समायोजित करके सही पूर्वानुमान करने की सामर्थ्य को शामिल करता है। YOLOv8 मॉडल में Ultralytics YOLO के ट्रेन मोड ने ऑब्जेक्ट डिटेक्शन मॉडल्स को प्रभावी और दक्ष ट्रेनिंग के लिए इंजीनियरिंग किया गया है, जिससे आधुनिक हार्डवेयर क्षमताओं का पूरी तरह से उपयोग किया जा सके। यह मार्गदर्शिका उन सभी विवरणों को कवर करने का उद्देश्य रखती है जो आपको YOLOv8 के मजबूत सेट ऑफ़ सुविधाओं का उपयोग करके अपने खुद के मॉडल्स को ट्रेनिंग शुरू करने के लिए चाहिए।
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/LNwODJXcvt4?si=7n1UvGRLSd9p5wKs"
title="YouTube वीडियो प्लेयर" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> Google Colab में अपने कस्टम डेटासेट पर एक YOLOv8 मॉडल को ट्रेन करने का तरीका।
</p>
## प्रशिक्षण के लिए Ultralytics YOLO का चयन क्यों करें?
यहां YOLOv8 के ट्रेन मोड को चुनने के कुछ प्रमुख कारण हैं:
- **दक्षता:** अपने हार्डवेयर से सबसे अधिक लाभ उठाएं, चाहे आप सिंगल-GPU सेटअप पर हों या कई GPU पर स्केल कर रहें हों।
- **प्राक्तिशिल्ता:** COCO, VOC और ImageNet जैसे तत्परता उपलब्ध डेटासेटों के अलावा कस्टम डेटासेट पर ट्रेन करें।
- **उपयोगकर्ता मित्रपूर्णता:** सीधे और शक्तिशाली CLI और Python इंटरफ़ेस का उपयोग एक सीधी ट्रेनिंग अनुभव के लिए।
- **हाइपरपैरामीटर लचीलापन:** मॉडल प्रदर्शन को सुधारने के लिए वैश्विक स्तर पर अनुकूलन योग्य हाइपरपैरामीटरों की एक व्यापक श्रृंखला।
### ट्रेन मोड की प्रमुख सुविधाएं
निम्नलिखित YOLOv8 के ट्रेन मोड की कुछ महत्वपूर्ण सुविधाएं हैं:
- **स्वत: डेटासेट डाउनलोड:** COCO, VOC और ImageNet जैसे मानक डेटासेट्स को पहली बार के उपयोग पर स्वत: डाउनलोड किया जाता है।
- **बहु-GPU समर्थन:** प्रक्रिया की गति को तेज करने के लिए अनुप्रयोग में कई जीपीयू का उपयोग करें।
- **हाइपरपैरामीटर कॉन्फ़िगरेशन:** हाइपरपैरामीटर को यामल कॉन्फ़िगरेशन फ़ाइल या CLI तर्कों के माध्यम से संशोधित करने का विकल्प।
- **दृश्यीकरण और मॉनिटरिंग:** प्रशिक्षण मैट्रिक्स के वास्तविक समय ट्रैकिंग और सीखने की प्रक्रिया के दृश्यीकरण के लिए बेहतर अवधारणा के लिए।
!!! Tip "टिप"
* COCO, VOC, ImageNet और कई अन्य जैसे YOLOv8 डेटासेट पहले से आपूर्ति हो जाते हैं, उपयोग पर स्वत: डाउनलोड होते हैं, जैसे `yolo train data=coco.yaml`
## उपयोग उदाहरण
सौंधांग्रही कोड को नजरअंदाज किए बिना कोई उत्तर देने के लिए, कोको128 डेटासेट के लिए YOLOv8n पर ट्रेनिंग करें। ट्रेनिंग उपकरण `device` तर्क का उपयोग करके निर्दिष्ट किया जा सकता है। आगर कोई तर्क निर्दिष्ट नहीं किया जाता है, तो प्रशिक्षण `device=0` लगाने के लिए उपयुक्त GPU `device=0` का उपयोग करेगा, अन्यथा `device=cpu` का उपयोग किया जाएगा। पूरी प्रशिक्षण तर्कों की पूरी सूची के लिए नीचे देखें।
!!! Example "सिंगल-जीपीयू और सीपीयू प्रशिक्षण उदाहरण"
उपकरण स्वत: निर्धारित किया जाता है। यदि साझा-GPU उपलब्ध हो तो उसका उपयोग किया जाएगा, अन्यथा प्रशिक्षण सीपीयू पर शुरू होगा।
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('yolov8n.yaml') # YAML से एक नया मॉडल बनाएं
model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें
model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAML से बनाएं और वजन मारे ट्रांसफर करें
# मॉडल प्रशिक्षण
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
```
=== "CLI"
```bash बैश
# YAML से एक नया मॉडल बनाएं और शुरू से प्रशिक्षण शुरू करें
yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640
# पूर्व-प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640
# YAML से एक नया मॉडल बनाएं, पूर्व-प्रशिक्षित वजनों को इसमें स्थानांतरित करें और प्रशिक्षण शुरू करें
yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
```
### बहु-जीपीयू प्रशिक्षण
बहु-जीपीयू प्रशिक्षण एकाधिक जीपीयू के उपयोग से उपलब्ध होता है और उपकरण माध्यम से भी Python API के माध्यम से उपलब्ध है। बहु-जीपीयू प्रशिक्षण को सक्षम करने के लिए, आप उपयोग करना चाहते हैं उन जीपीयू उपकरण आईडीजी को निर्दिष्ट करें।
!!! Example "बहु-जीपीयू प्रशिक्षण का उदाहरण"
2 जीपीयू के साथ प्रशिक्षित करें, CUDA उपकरण 0 और 1 का उपयोग करें। अतिरिक्त जीपीयू के लिए विस्तार करें जितना आवश्यक हो।
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें
# दो जीपीयू के साथ मॉडल प्रशिक्षण
results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1])
```
=== "CLI"
```bash
# पूर्व-प्रशिक्षित *.pt मॉडल से जीपीयू 0 और 1 का उपयोग करके प्रशिक्षण शुरू करें
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1
```
### ऐपल M1 और M2 MPS प्रशिक्षण
ऐपल M1 और M2 चिप्स के समर्थन के साथ Ultralytics YOLO मॉडल पर ट्रेनिंग करना अब ऐसे उपकरणों पर संभव होता है जहां शक्तिशाली मेटल परफार्मेंस शेडर (MPS) फ़्रेमवर्क का उपयोग किया जाता है। MPS कंप्यूटेशन और छवि प्रसंस्करण कार्यों को आईयूपी स्लिकॉन पर निष्पादित करने का एक उच्च कार्यक्षमता तरीका प्रदान करता है।
ऐपल M1 और M2 चिप्स पर प्रशिक्षण को सक्षम करने के लिए, आपको प्रशिक्षण प्रक्रिया शुरू करते समय "mps" को अपने उपकरण के रूप में निर्दिष्ट करना चाहिए। नीचे Python और कमांड लाइन में इसे कैसे कर सकते हैं उसका एक उदाहरण दिया गया है:
!!! Example "MPS प्रशिक्षण का उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश की जाती है, एक पूर्व-प्रशिक्षित मॉडल लोड करें
# दो जीपीयू के साथ मॉडल प्रशिक्षण
results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device='mps')
```
=== "CLI"
```bash
# पूर्व-प्रशिक्षित *.pt मॉडल से जीपीयू 0 और 1 का उपयोग करके प्रशिक्षण शुरू करें
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=mps
```
M1/M2 चिप्स के गणितात्मक शक्ति का लाभ लेते हुए, इससे प्रशिक्षण कार्यों की कार्यक्षमता को और बढ़ाया जाता है। अधिक विस्तृत मार्गदर्शन और उन्नत रूपरेखा विकल्पों के लिए, कृपया [PyTorch MPS दस्तावेज़ीकरण](https://pytorch.org/docs/stable/notes/mps.html) का संदर्भ देखें।
### बाधित प्रशिक्षण को बहाल करना
पहले ही बचे हुए अवस्था की तालिका स्थापित करना, गहरी यान्त्रिकी मॉडल के साथ काम करते समय एक महत्वपूर्ण सुविधा है। यह विविध परिदृश्यों में उपयोगी है, जैसे जब अप्रत्याशित रूप से प्रशिक्षण प्रक्रिया रुक गई हो, या जब आप नए डेटा के साथ या अधिक इपॉक्स के लिए एक मॉडल को प्रशिक्षण जारी रखना चाहते हैं।
प्रशिक्षण बहाल करने पर, Ultralytics YOLO अंतिम सहेजे गए मॉडल से वजनों को लोड करता है और अद्यतनकर्ता की स्थिति, शिक्षा दर नियोजक और युग क्रमांक को भी पुनर्स्थापित करता है। इससे आप प्रशिक्षण प्रक्रिया को बिना किसी गड़बड़ के बाहर छोड़ देने के लिए कर सकते हैं।
आप आसानी से Ultralytics YOLO में प्रशिक्षण को बहाल कर सकते हैं जब आप `train` विधि को बुलाने पर `resume` तर्क को `True` निर्दिष्ट करके और आंशिक रूप से निर्दिष्ट `pt` फ़ाइल के पथ को निर्दिष्ट करके, और आपका ट्रेनिंग प्रक्रिया जहां से छोड़ गई थी से प्रशिक्षण जारी रखने के लिए `train` फ़ंक्शन को कम्युट कीजिए।
नीचे एक उदाहरण दिया गया है कि कैसे पायथन और कमांड लाइन में एक अविरल प्रशिक्षण को कैसे बहाल करें:
!!! Example "प्रशिक्षण बहाल करने का उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('path/to/last.pt') # एक आंशिक-प्रशिक्षित मॉडल लोड करें
# प्रशिक्षण बहाल करें
results = model.train(resume=True)
```
=== "CLI"
```bash शैल
# एक अविरल प्रशिक्षण बहाल करें
yolo train resume model=path/to/last.pt
```
`resume=True` सेट करके, `train` फ़ंक्शन पहले से बचे हुए मॉडल के स्थान में बचे हुए अवस्था में से प्रशिक्षण जारी रखेगा। यदि `resume` तर्क छोड़ दिया जाता है या `False` के रूप में निर्दिष्ट किया जाता है, तो `train` फ़ंक्शन एक नया प्रशिक्षण सत्र शुरू करेगा।
याद रखें कि डिफ़ॉल्ट रूप स्थिति पर दशा-अतीत प्रति के अंत में बचावात्मक संग्रहण होते हैं, या `save_period` तर्क का उपयोग करके निश्चित अंतराल पर, इसलिए आपको एक प्रशिक्षण दौड़ को बहाल करने के लिए कम से कम 1 इपॉक्स पूर्ण करना होगा।
## तर्क
YOLO मॉडलों के लिए प्रशिक्षण सेटिंग विभिन्न हाइपरपैरामीटर और कॉन्फ़िगरेशन का उपयोग करते हैं जो मॉडल को एक डेटासेट पर प्रशिक्षित करने के लिए उपयोग होता है। इन सेटिंग्स में मॉडल के प्रदर्शन, गति और नियमितता पर प्रभाव पड़ सकता है। कुछ सामान्य YOLO प्रशिक्षण सेटिंग्स में बैच का आकार, सीखने दर, मोमेंटम और वेट डिके जैसी मानक अद्यतन वाली चीजें शामिल हैं। प्रशिक्षण प्रक्रिया को प्रभावी ढंग से स्थापित करने के लिए इन सेटिंग्स को सावधानीपूर्वक संयोजित करना महत्वपूर्ण है और एक दिए गए कार्य के लिए श्रेणी में सबसे अच्छे परिणाम प्राप्त करने के लिए इन सेटिंग्स के साथ संगतन करने की आवश्यकता होती है।
| कुंजी | मान | विवरण |
|-------------------|----------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| `model` | `None` | मॉडल फ़ाइल का पथ, चाहे yolov8n.pt, yolov8n.yaml |
| `data` | `None` | डेटा फ़ाइल का पथ, चाहे coco128.yaml |
| `epochs` | `100` | प्रशिक्षण के लिए बार की संख्या |
| `patience` | `50` | प्रशिक्षण के आरंभ में कोई देखने के योग्य सुधार के लिए इपॉक्स इंतजार करें |
| `batch` | `16` | प्रति बैच छवि की संख्या (-1 के लिए AutoBatch) |
| `imgsz` | `640` | प्रारंभिक छवियों का आकार मानदंड |
| `save` | `True` | प्रशिक्षण नियंत्रितक और पूर्वानुमान परिणाम सहेजें |
| `save_period` | `-1` | प्रत्येक x ईपॉक्स पर निर्वाचित चेकप्वाइंट (1 से कम द्वारा अक्षम) |
| `cache` | `False` | [सही/रैम](https://github.com/rwightman/pytorch-image-models/blob/master/timm/data/constants.py) या खोलने के लिए ब्राउज़र के लिए ब्राउज़र डेटा लोड करने के लिए उपयोग करें |
| `device` | `None` | चलाने के लिए उपकरण, उदाहरण के लिए cuda उपकरण का उपयोग करें device=0 या device=0,1 या device=cpu |
| `workers` | `8` | वर्कर सूत्रों की संख्या |
| `project` | `None` | प्रोजेक्ट का नाम |
| `name` | `None` | प्रयोग का नाम |
| `exist_ok` | `False` | मौजूदा प्रयोग को अधिलेखित करने के लिए या नहीं |
| `pretrained` | `True` | (बूल या स्ट्रिंग) आज्ञानुसार एक पूर्व-प्रशिक्षित मॉडल का उपयोग करें (बूल) या वजनों को लोड करने के लिए मॉडल से (स्ट्रिंग) |
| `optimizer` | `'auto'` | चयन के लिए बराबरी=[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto] |
| `verbose` | `False` | वर्बोज़ आउटपुट प्रिंट करें |
| `seed` | `0` | नियंत्रित (प्रशिक्षणीय) बीज के लिए |
| `deterministic` | `True` | नियंत्रित माध्यम को सक्षम करें |
| `single_cls` | `False` | हिल विशेषज्ञता डेटा सिंगल-कक्षा के रूप में |
| `rect` | `False` | न्यूनतम पैडिंग के लिए प्रति बैच रो टैब्री के साथ आयतात्मक प्रशिक्षण |
| `cos_lr` | `False` | साइन के साइन शिक्षण दर नियोजक का उपयोग करें |
| `close_mosaic` | `10` | अंतिम अवधि के लिए मॉज़ेक त断श्रावक में माध्यम वृक्षों की सक्षमता (0 को अक्षम करें) |
| `resume` | `False` | आखिरी निर्वाचित चेकप्वाइंट से प्रशिक्षण बहाल करें |
| `amp` | `True` | ऑटोमेटिक मिक्स्ड प्रेसिजन (AMP) प्रशिक्षण, चयन=[True, False] |
| `fraction` | `1.0` | प्रशिक्षित करने के लिए डेटासेट आंशिक (डिफ़ॉल्ट 1.0, प्रशिक्षण सेट में सभी छवियां) |
| `profile` | `False` | लॉगर्स के लिए प्रशिक्षण के दौरान ONNX और TensorRT की स्पीड प्रोफ़ाइल |
| `freeze` | `None` | श्रोणि की पहले n परतें, या श्रोणि सूची लेयर सूची को प्रशिक्षण के दौरान लॉक करें |
| `lr0` | `0.01` | प्रारंभिक सीखने दर (उदा. SGD=1E-2, Adam=1E-3) |
| `lrf` | `0.01` | परिणामकारी सीखने दर (lr0 * lrf) |
| `momentum` | `0.937` | SGD मोमेंटम/Adam बीटा1 |
| `weight_decay` | `0.0005` | शव्य वजन दण्ड 5e-4 |
| `warmup_epochs` | `3.0` | प्रारंभिक अवधि (अंशों में ठंडा) |
| `warmup_momentum` | `0.8` | प्रारंभिक अवधि मे प्रारम्भिक अवधि |
| `warmup_bias_lr` | `0.1` | प्रारंभिक जुकान एलआर |
| `box` | `7.5` | बॉक्स हानि प्राप्ति |
| `cls` | `0.5` | वर्ग हानि प्राप्ति (पिक्सेल के साथ स्थापना करें) |
| `dfl` | `1.5` | खींची हानि प्राप्ति |
| `pose` | `12.0` | माथाप्रविष्टि हानि प्राप्ति (केवल ठंडा) |
| `kobj` | `2.0` | कीपॉइंट obj हानि प्राप्ति (केवल ठंडा) |
| `label_smoothing` | `0.0` | लेबल स्मूदिंग (अंश) |
| `nbs` | `64` | नामोज़यल बैच का आकार |
| `overlap_mask` | `True` | प्रशिक्षण के दौरान मास्क ओवरलैप होने चाहिए (सेगमेंट ट्रेन केवल) |
| `mask_ratio` | `4` | स्थानकटू औरता (सेगमेंट ट्रेन केवल) |
| `dropout` | `0.0` | निर्द्यमता का उपयोग करें (वर्गीकरण केवल प्रशिक्षण) |
| `val` | `True` | प्रशिक्षण के दौरान जाँच/परीक्षण |
## लॉगिंग
YOLO मॉडल के प्रशिक्षण में आपको समय-समय पर मॉडल के प्रदर्शन का पता रखना महत्वपूर्ण हो सकता है। यहां लॉगिंग की एक वैरांगणिकता, यानी कीमेट, क्लियरएमएल और टेंसरबोर्ड का समर्थन है।
लॉगर का उपयोग करने के लिए, ऊपरी कोड स्निपेट के ठोकवाला मेनू से इसे चयन करें और इसे चलाएं। चयनित लॉगर स्थापित किया जाएगा और इनिशलाइज़ किया जाएगा।
### कीमेट
[कीमेट](../../integrations/comet.md) एक प्लेटफ़ॉर्म है जो डेटा वैज्ञानिकों और डेवलपरों को प्रयोग और मॉडलों की प्रशिक्षण में तुलनात्मक, व्याख्यान करने और अग्रिम निर्धारण करने में मदद करता है। इसकी सुविधाएं वास्तविक समय मापक, कोड अंतर और हाइपरपैरामीटर ट्रैकिंग जैसी विभिन्नताएं प्रदान करती हैं।
कीमेट का उपयोग करने के लिए:
!!! Example "उदाहरण"
=== "Python"
```python
# pip install comet_ml
import comet_ml
comet_ml.init()
```
कृपया कीमेट वेबसाइट पर अपने कीमेट खाते में साइन इन करें और अपनी एपीआई कुंजी प्राप्त करें। आपको अपने वातावरण प्रतिस्थापित करने या अपने स्क्रिप्ट में इसे जोड़ने की आवश्यकता होगी ताकि आप अपने प्रयोगों को लॉग कर सकें।
### क्लियरएमएल
[क्लियरएमएल](https://www.clear.ml/) एक ओपन-सोर्स प्लेटफ़ॉर्म है जो प्रयोगों के ट्रैकिंग को स्वतंत्र और प्रभावी संसाधित करने में मदद करता है। यह टीम को उनके एमएल का कार्य प्रबंधन, क्रियाकलापों को क्रियान्वयन करने और उनकी पुनःसृजन की संवेदनशीलता से सहायता करने के लिए डिज़ाइन दोबारा करने के लिए विकसित किया गया है।
क्लियरएमएल का उपयोग करने के लिए:
!!! Example "उदाहरण"
=== "Python"
```python
# pip install clearml
import clearml
clearml.browser_login()
```
इस स्क्रिप्ट को चलाने के बाद, कृपया क्लियरएमएल वेबसाइट पर अपने क्लियरएमएल खाते में साइन इन करें और अपने ब्राउज़र सत्र की प्रमाणिकता स्वीकार करें।
### टेंसरबोर्ड
[टेंसरबोर्ड](https://www.tensorflow.org/tensorboard) एक टेन्सरफ़्लो वीज़ुअलाइज़ेशन टूलकिट है। यह आपको अपने टेन्सरफ़्लो ग्राफ को दृष्टिगतिक टुकड़ों में वेटवेद्य करने, आपातकालीन अवकलनों के बारे में मितियों को प्लॉट करने और इसके मध्य से जाने की कल्पना से बदलने जैसे अतिरिक्त डेटा दिखाने की अनुमति देता है।
[Google Colab में](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb) टेंसरबोर्ड का उपयोग करने के लिए:
!!! Example "उदाहरण"
=== "CLI"
```bash
load_ext tensorboard
tensorboard --logdir ultralytics/runs # ध्यान दें कि 'धावक' निर्देशिका के साथ बदलें
```
स्थानीय टेंसरबोर्ड का उपयोग करने के लिए नीचे दिए गए कमांड को चलाएं और परिणामों को http://localhost:6006/ पर देखें।
!!! Example "उदाहरण"
=== "CLI"
```bash
tensorboard --logdir ultralytics/runs # ध्यान दें कि 'धावक' निर्देशिका के साथ बदलें
```
इससे टेंसरबोर्ड लोड होगा और यह आपके प्रशिक्षण लॉगों की सहेजी हुई निर्देशिका की ओर दिशानिर्देश करेगा।
लॉगर स्थापित करने के बाद, आप अपने चयनित प्लेटफ़ॉर्म में स्वचालित रूप से रूपांतरण मात्राओं को अद्यतन करने के लिए प्रशिक्षणीय कोड जारी रख सकते हैं, और आपको इन लॉगों का उपयोग करके अपने मॉडल के प्रदर्शन का मूल्यांकन कर सकते हैं चाहे यह मॉडलों के प्रदर्शन के समय, विभिन्न मॉडलों का तुलनात्मक मूल्यांकन, और सुधार करने का पहचान करने के लिए।

86
docs/hi/modes/val.md Normal file
View file

@ -0,0 +1,86 @@
---
comments: true
description: YOLOv8 मॉडलों की मान्यता सत्यापन के लिए गाइड। यहाँ जानें कि कैसे पायथन और CLI उदाहरणों के साथ परीक्षण सेटिंग्स और मापों का उपयोग करके अपने YOLO मॉडलों के प्रदर्शन का मूल्यांकन करें।
keywords: Ultralytics, YOLO दस्तावेज़, YOLOv8, मान्यता, मॉडल मूल्यांकन, हाइपरपैरामीटर, सटीकता, माप, पायथन, सीएलआई
---
# Ultralytics YOLO के साथ मॉडल मान्यता
<img width="1024" src="https://github.com/ultralytics/assets/raw/main/yolov8/banner-integrations.png" alt="Ultralytics YOLO पारिस्थितिकी और एकीकरण">
## परिचय
मान्यता मशीन लर्निंग पाइपलाइन में एक महत्वपूर्ण चरण है, जो आपको अपने प्रशिक्षित मॉडलों की गुणवत्ता का मूल्यांकन करने की अनुमति देता है। Ultralytics YOLOv8 में Val मोड बहुत सारे टूल्स और मापों का प्रयोग करके आपके ऑब्जेक्ट डिटेक्शन मॉडलों के प्रदर्शन का मूल्यांकन करने के लिए है। यह गाइड योग्यता और विश्वसनीयता दोनों सुनिश्चित करने के लिए Val मोड का सविस्तर संसाधन के रूप में काम आता है।
## Ultralytics YOLO के साथ मान्यता करने के फायदे
यहाँ योलोवी8 के Val मोड का उपयोग करने के फायदे हैं:
- **सटीकता:** अपने मॉडल को पूरी तरह से मूल्यांकित करने के लिए mAP50, mAP75, और mAP50-95 जैसे टिकाऊ मापों को प्राप्त करें।
- **सुविधा:** मूल्यांकन प्रक्रिया को सरल बनाने के लिए ट्रेनिंग सेटिंग्स को याद करने वाली इनबिल्ट सुविधा का उपयोग करें।
- **लचीलापन:** अपने मॉडल को एक ही या अलग डेटासेट और छवि आकार के साथ मान्यता दें।
- **हाइपरपैरामीटर ट्यूनिंग:** मूल्यांकन मापों का उपयोग करके अपने मॉडल को बेहतर प्रदर्शन के लिए समायोजित करें।
### Val मोड की मुख्य विशेषताएं
ये हैं YOLOv8 के Val मोड द्वारा प्रदान की जाने वाली महत्वपूर्ण कार्यक्षमताएं:
- **स्वत: सेटिंग्स:** मॉडल योग्यता के लिए अपने प्रशिक्षण समायोजनों को स्वतः याद रखते हैं।
- **बहुमान्यता समर्थन:** विभिन्न सटीकता मापों के आधार पर अपने मॉडल की मूल्यांकन करें।
- **CLI और पायथन एपीआई:** मान्यता के लिए CLI या पायथन एपीआई में से एक का चयन करें।
- **डेटा सम्पर्कता:** कोकोविवक प्रशिक्षण चरण में उपयोग की जाने वाली डेटासेट के साथ सहजता से काम करता है।
!!! Tip "टिप"
* YOLOv8 मॉडल अपने प्रशिक्षण सेटिंग्स को स्वतः याद रखते हैं, इसलिए आप केवल `yolo val model=yolov8n.pt` या `model('yolov8n.pt').val()` द्वारा सरलतापूर्वक एक मॉडल को समान छवि आकार के साथ और मूल डेटासेट पर मान्यता दे सकते हैं।
## उपयोग के उदाहरण
COCO128 डेटासेट पर प्रशिक्षित YOLOv8n मॉडल की सटीकता मान्यांकन करें। `model` को विद्यमान ट्रेनिंग `data` और तर्क बने रहते हैं, इसलिए कोई तर्क पास कराने की आवश्यकता नहीं है। पूरी सूची निर्यात तर्कों के लिए नीचे देखें।
!!! Example "उदाहरण"
=== "पायथन"
```python
from ultralytics import YOLO
# मॉडल लोड करें
model = YOLO('yolov8n.pt') # एक आधिकारिक मॉडल लोड करें
model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें
# मॉडल को मान्यांकन करें
metrics = model.val() # कोई तर्क आवश्यक नहीं होते हैं, डेटासेट और सेटिंग्स याद रखे जाते हैं
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # हर श्रेणी के map50-95 से बना एक सूची
```
=== "CLI"
```bash
yolo detect val model=yolov8n.pt # आधिकारिक मॉडल को मान्यांकन करें
yolo detect val model=path/to/best.pt # कस्टम मॉडल को मान्यांकन करें
```
## तर्क
YOLO मॉडल के लिए मान्यांकन सेटिंग्स निम्नलिखित होते हैं: हाइपरपैरामीटर और विन्यास जैसे, जो मॉडल की मान्यता को मूल्यांकित करने के लिए उपयोग होते हैं। ये सेटिंग्स मॉडल के प्रदर्शन, गति, और सटीकता पर प्रभाव डाल सकती हैं। कुछ आम YOLO मान्यांकन सेटिंग्स में दाल-दालत, ट्रेनिंग के दौरान मान्यांकन कब किया जाता है और मान्यांकन के लिए उपयोग किए जाने वाले माप शामिल हैं। मान्यांकन प्रक्रिया को प्रभावित कर सकने वाले अन्य कारकों में मान्यांकन डेटासेट का आकार और संरचना और मॉडल का विशेष कार्य शामिल हैं। ओवरफिटिंग का पता लगाने और रोकने के लिए इन सेटिंग्स को सावधानीपूर्वक समायोजित और प्रयोग करना महत्वपूर्ण है।
| कुंजी | मान | विवरण |
|---------------|---------|------------------------------------------------------------------------------------|
| `data` | `None` | डेटा फ़ाइल का पथ, जैसे की coco128.yaml |
| `imgsz` | `640` | प्रारूपिक छवि का आकार एक पूर्णांक के रूप में |
| `batch` | `16` | प्रति बैच छवि की संख्या (-1 for AutoBatch) |
| `save_json` | `False` | परिणाम JSON फ़ाइल में सहेजें |
| `save_hybrid` | `False` | प्रकारों के हाइब्रिड संस्करण को सहेजें (लेबल + अतिरिक्त पूर्वानुमान) |
| `conf` | `0.001` | डिटेक्शन के लिए वस्तु का विश्वसनीयता थ्रेशहोल्ड |
| `iou` | `0.6` | संयोग/संधि (IoU) के लिए थ्रेशहोल्ड डाकघर |
| `max_det` | `300` | प्रति छवि के लिए अधिकतम निकासी संख्या |
| `half` | `True` | अर्धसरलता (FP16) का उपयोग करें |
| `device` | `None` | चलाएं के लिए युक्ति, उदाहरण के लिए cuda device=0/1/2/3 या device=cpu |
| `dnn` | `False` | ओएनएनएक्स संज्ञानात्मक के लिए ओपेंसीवी डीएनएन का उपयोग करें |
| `plots` | `False` | प्रशिक्षण के दौरान चित्रितियाँ दिखाएं |
| `rect` | `False` | न्यूनतम पैडिंग के लिए हर बैच को संकलित आयताकारक विमान करें |
| `split` | `val` | मान्यांकन के लिए उपयोग की जाने वाली डेटासेट स्प्लिट, जैसे 'val', 'test' या 'train' |
|

327
docs/hi/quickstart.md Normal file
View file

@ -0,0 +1,327 @@
---
comments: true
description: Ultralytics को स्थापित करने के विभिन्न तरीकों के बारे में जानें। Ultralytics को pip, conda, git और Docker का उपयोग करके स्थापित करें। Ultralytics का उपयोग कमांड लाइन इंटरफेस या अपनी Python परियोजनाओं के भीतर करना सीखें।
keywords: Ultralytics स्थापना, pip install Ultralytics, Docker install Ultralytics, Ultralytics कमांड लाइन इंटरफेस, Ultralytics Python इंटरफेस
---
## Ultralytics स्थापित करें
Ultralytics ने pip, conda और Docker सहित कई स्थापना विधियाँ प्रदान की हैं। नवीनतम स्थिर संस्करण के लिए `ultralytics` pip पैकेज का उपयोग करके YOLOv8 स्थापित करें या सबसे अद्यतित संस्करण के लिए [Ultralytics GitHub repository](https://github.com/ultralytics/ultralytics) क्लोन करें। Docker का उपयोग करके, स्थानीय स्थापना से बच कर, एक छोटे जगह में पैकेज के नए संस्करण का निष्पादन किया जा सकता है।
!!! Note
🚧 हमारे बहुभाषीय दस्तावेज़ीकरण की वर्तमान में निर्माणाधीन है और हम उसे सुधारने के लिए कठिनताओं पर काम कर रहे हैं। आपके धैर्य के लिए धन्यवाद! 🙏
!!! Example "स्थापित करें"
=== "Pip स्थापित करें (अनुशंसित)"
यदि आपके पास पिछले संस्करण का स्थापना है, तो पिप का उपयोग करके `ultralytics` पैकेज को स्थापित करने के लिए `pip install -U ultralytics` कमांड चलाएं। `ultralytics` पैकेज के बारे में अधिक विवरण के लिए [Python Package Index (PyPI)](https://pypi.org/project/ultralytics/) पर जाएं।
[![PyPI version](https://badge.fury.io/py/ultralytics.svg)](https://badge.fury.io/py/ultralytics) [![Downloads](https://static.pepy.tech/badge/ultralytics)](https://pepy.tech/project/ultralytics)
```bash
# PyPI से ultralytics पैकेज का स्थापना करें
pip install ultralytics
```
आप इसे सीधे [GitHub repository](https://github.com/ultralytics/ultralytics) से भी स्थापित कर सकते हैं। यह अद्यतन संस्करण प्राप्त करना चाहते हैं तो यह सर्वोत्तम हो सकता है। इसके लिए अपने सिस्टम पर गिट कमांड-लाइन टूल स्थापित होना चाहिए। `@main` अपदेश की `main` शाखा को स्थापित करता है और इसे दूसरी शाखा, उदा. `@my-branch`, में संशोधित किया जा सकता है, या पूर्णतः हटा दिया जा सकता है, ताकि यह डिफ़ॉल्ट रूप से `main` शाखा को ले जाए।
```bash
# GitHub से ultralytics पैकेज का स्थापना करें
pip install git+https://github.com/ultralytics/ultralytics.git@main
```
=== "Conda स्थापित करें"
स्थापना के लिए pip के बदले Conda एक वैकल्पिक पैकेज प्रबंधक है जिसे आप स्थापना के लिए उपयोग कर सकते हैं। किसी भी जानकारी के लिए [Anaconda की मुख्य साइट](https://anaconda.org/conda-forge/ultralytics) पर जाएं। कंडा पैकेज की अद्यतन और संसाधन रिपो के लिए [यहां](https://github.com/conda-forge/ultralytics-feedstock/) देखें।
[![Conda Recipe](https://img.shields.io/badge/recipe-ultralytics-green.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Downloads](https://img.shields.io/conda/dn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Version](https://img.shields.io/conda/vn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics) [![Conda Platforms](https://img.shields.io/conda/pn/conda-forge/ultralytics.svg)](https://anaconda.org/conda-forge/ultralytics)
```bash
# conda का उपयोग करके ultralytics पैकेज का स्थापना करें
conda install -c conda-forge ultralytics
```
!!! Note
यदि आप CUDA परिवेश में स्थापित कर रहे हैं तो सर्वोत्तम अनुशंसा है कि आप कमांड-लाइन पर `pytorch` और `pytorch-cuda` स्थापित करने के लिए कमांड एक साथ इंस्टॉल करें ताकि कोण्डा पैकेज प्रबंधक को कोई भी टकराव सुलझाने के लिए अनुमति मिले, या फिर जरूरत पड़ने पर CPU-विशिष्ट `pytorch` पैकेज को CPU-विशिष्ट होने वाले `pytorch-cuda` पैकेज को अधिरोहित करने की अनुमति दें।
```bash
# conda का उपयोग करके सभी पैकेजों को एक साथ स्थापित करें
conda install -c pytorch -c nvidia -c conda-forge pytorch torchvision pytorch-cuda=11.8 ultralytics
```
### Conda Docker इमेज
Ultralytics Conda Docker इमेज [DockerHub](https://hub.docker.com/r/ultralytics/ultralytics) से उपलब्ध हैं। ये इमेजेज [Miniconda3](https://docs.conda.io/projects/miniconda/en/latest/) पर आधारित हैं और `ultralytics` का उपयोग Conda पर्यावरण में करने के लिए एक सरल तरीका है।
```bash
# रूपरेखा नाम को एक चर के रूप में सेट करें
t=ultralytics/ultralytics:latest-conda
# Docker Hub से नवीनतम ultralytics इमेज को पुल करें
sudo docker pull $t
# जीपीयू समर्थन वाले कंटेनर में ultralytics इमेज चलाएं
sudo docker run -it --ipc=host --gpus all $t # सभी जीपीयू
sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # जीपीयू द्वारा निर्दिष्ट करें
```
=== "Git क्लोन"
यदि आप विकास में योगदान करने में रुचि रखते हैं या नवीनतम स्रोत कोड के साथ प्रयोग करने की इच्छा रखते हैं, तो `ultralytics` रिपॉजिटरी क्लोन करें। क्लोनिंग के बाद, उस निर्दिष्टित संदर्भ में नेविगेट करें और पैकेज को पहचानने के लिए pip का उपयोग करते हुए संगठनात्मक मोड `-e` के साथ पैकेज स्थापित करें।
```bash
# ultralytics रिपॉजिटरी क्लोन करें
git clone https://github.com/ultralytics/ultralytics
# क्लोन की गई निर्देशिका में नेविगेट करें
cd ultralytics
# विकास के लिए संगठनात्मक मोड में पैकेज स्थापित करें
pip install -e .
```
=== "Docker"
Docker का उपयोग करके `ultralytics` पैकेज का आसानी से निष्पादन करें और इसे रखरखाव में बेहद सुगम बनाएं, इस पैकेज का उपयोग करें, विभिन्न पर्यावरणों पर सतत और सुगम प्रदर्शन सुनिश्चित करने के लिए। [Docker Hub](https://hub.docker.com/r/ultralytics/ultralytics) से सत्यापित कार्यकारी वातावरण तक पहुंच के लिए Ultralytics 5 मुख्य समर्थित Docker इमेज उपलब्ध हैं, जो विभिन्न प्लेटफ़ॉर्म और उपयोग मामलों के लिए उच्च संगतता और प्रदार्थशीलता प्रदान करने के लिए डिज़ाइन किए गए हैं:
<a href="https://hub.docker.com/r/ultralytics/ultralytics"><img src="https://img.shields.io/docker/pulls/ultralytics/ultralytics?logo=docker" alt="डॉकर पुल्ल्स"></a>
- **Dockerfile:** प्रशिक्षण के लिए अद्यतन संस्करण के लिए अनुशंसित GPU चित्र।
- **Dockerfile-arm64:** ARM64 वाणिज्यिकरण के लिए अनुकूलित, Raspberry Pi और अन्य ARM64 आधारित प्लेटफ़ॉर्म पर यातायात की अनुमति देता है।
- **Dockerfile-cpu:** GPU रहित पतला मॉडल, उबंटू आधारित योग्यता तक पुनर्निर्माण के लिए उपयुक्त है।
- **Dockerfile-jetson:** NVIDIA Jetson उपकरणों के लिए आदर्शों के आधार पर गीयू समर्थन मिलान, इन प्लेटफ़ॉर्मों के लिए अनुकूल यूपीयू समर्थन समेकित करता है।
- **Dockerfile-python:** केवल Python और आवश्यकता प्रतिस्थापित करने वाले न्यूनतम छवि, हल्के ऐप्स और विकास के लिए आदर्श छवि।
- **Dockerfile-conda:** Miniconda3 पर आधारित, Ultralytics पैकेज के कोण्डा स्थापना के साथ।
निम्नलिखित कमांडों का उपयोग करके नवीनतम छवि लाएँ और उसे निष्पादित करें:
```bash
# छवि नाम को एक चर के रूप में सेट करें
t=ultralytics/ultralytics:latest
# Docker Hub से नवीनतम ultralytics छवि पुल करें
sudo docker pull $t
# जीपीयू समर्थन वाले कंटेनर में ultralytics छवि चलाएं
sudo docker run -it --ipc=host --gpus all $t # सभी जीपीयू
sudo docker run -it --ipc=host --gpus '"device=2,3"' $t # जीपीयू द्वारा निर्दिष्ट करें
```
उपरोक्त कमांड ने एक Docker कंटेनर को एक्सेस करने के लिए उत्थान किया है। `-it` झंझटी एक प्रतीक TTY को निर्धारित करती है और stdin खुली रखती है, जिससे आप कंटेनर के साथ इंटरैक्ट कर सकते हैं। `--ipc=host` झंझटी IPC (Inter-Process Communication) नेमस्पेस को होस्ट पर सेट करता है, जो प्रक्रियाओं के बीच मेमोरी साझा करने के लिए आवश्यक होता है। `--gpus all` निर्दिष्ट जीपीयू कंटेनर के बीतर सभी उपलब्ध जीपीयू के लिए पहुंच सक्षम करता है, जो जीपीयू हस्तक्षेप आवश्यकता वाले कार्यों के लिए महत्वपूर्ण है।
ध्यान दें: कंटेनर में स्थिति में अपनी स्थानीय मशीन पर फ़ाइलों के साथ काम करने के लिए Docker वॉल्यूम का उपयोग करें:
```bash
# स्थानीय निर्देशिका को कंटेनर में निर्देशिका में माउंट करें
sudo docker run -it --ipc=host --gpus all -v /path/on/host:/path/in/container $t
```
`/path/on/host` को अपनी स्थानीय मशीन पर निर्देशिका पथ के साथ बदलें और `/path/in/container` को कंटेनर में योग्यता तक पथ बदलें जिससे पहुंच मिल सके।
पूर्ण Docker उपयोग के लिए, आप [Ultralytics Docker मार्गदर्शिका](https://docs.ultralytics.com/guides/docker-quickstart/) के अन्वेषण कर सकते हैं।
`ultralytics` के लिए सभी आवश्यकताओं की सूची के लिए `ultralytics` [requirements.txt](https://github.com/ultralytics/ultralytics/blob/main/requirements.txt) फ़ाइल देखें। ध्यान दें कि उपरोक्त सभी उदाहरणों में सभी आवश्यकताएं स्थापित होती हैं।
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/_a7cVL9hqnk"
title="YouTube वीडियो प्लेयर" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> Ultralytics YOLO Quick Start Guide
</p>
!!! Tip "सुझाव"
ऑपरेटिंग सिस्टम और CUDA आवश्यकताओं के अनुसार PyTorch आवश्यकताएं अलग-अलग हो सकती हैं, इसलिए अनुशंसा की जाती है कि पहले PyTorch स्थापित करने के लिए इंस्ट्रक्शंस पर जाएं। [https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally) पर उपयोग के बारे में अधिक जानकारी के लिए।
<a href="https://pytorch.org/get-started/locally/">
<img width="800" alt="PyTorch Installation Instructions" src="https://user-images.githubusercontent.com/26833433/228650108-ab0ec98a-b328-4f40-a40d-95355e8a84e3.png">
</a>
## CLI के साथ Ultralytics का उपयोग करें
Ultralytics कमांड लाइन इंटरफ़ेस (CLI) आसान एकल-पंक्ति कमांड के लिए संक्षेप में होसला अद्यतित करता है, पायथन पर्यावरण की ज़रूरत के बिना। CLI कोई अनुकूलन या पायथन कोड की आवश्यकता नहीं होती है। आप केवल `yolo` कमांड के साथ टर्मिनल से सभी कार्यों को चला सकते हैं। CLI से YOLOv8 का उपयोग करने के बारे में और अधिक जानने के लिए [CLI Guide](../usage/cli.md) देखें।
!!! Example
=== "संयोजन"
Ultralytics `yolo` कमांड का उपयोग निम्नलिखित प्रारूप का उपयोग करता है:
```bash
yolo टास्क मोड ARGS
```
- `टास्क` (वैकल्पिक) इनमें से एक है ([खोजो](tasks/detect.md), [खंड](tasks/segment.md), [वर्गीकरण करो](tasks/classify.md), [स्थिति](tasks/pose.md))
- `मोड` (आवश्यक) इनमें से एक है ([प्रशिक्षण](modes/train.md), [मान्य](modes/val.md), [पूर्वानुमान](modes/predict.md), [निर्यात](modes/export.md), [ट्रैक](modes/track.md))
- `ARGS` (वैकल्पिक) `imgsz=640` जैसे `arg=मान` जो डिफ़ॉल्ट को ओवरराइड करते हैं।
सभी `ARGS` को पूर्ण [Configuration Guide](../usage/cfg.md) या `yolo cfg` CLI कमांड के साथ देखें।
=== "प्रशिक्षण"
प्रारंभिक शिक्षण और language के साथ 10 एपोक्स के लिए एक डिटेक्शन मॉडल प्रशिक्षित करें, जहां
इंगिती शिक्षण दर 0.01 है
```bash
yolo ट्रेन data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01
```
=== "पूर्वानुमान"
पूर्व-प्रशिक्षित सेगमेंटेशन मॉडल का उपयोग करके YouTube वीडियो की भविष्यवाणी करें
छवि आकार 320:
```bash
yolo पूर्वानुमान model=yolov8n-seg.pt स्रोत='https://youtu.be/LNwODJXcvt4' imgsz=320
```
=== "मान्य करो"
एक पूर्व-प्रशिक्षित डिटेक्शन मॉडल की मान्यता वाली प्रमाणित करें और इमेज का आकार 640 के बैच-आकार 1 के साथ देखें:
```bash
yolo मान्य model=yolov8n.pt data=coco128.yaml batch=1 imgsz=640
```
=== "निर्यात करें"
एक YOLOv8n वर्गीकरण मॉडल को ONNX प्रारूप में निर्यात करें, 224x224 के आकार पर छवि (कोई टास्क आवश्यक नहीं है)
```bash
yolo निर्यात model=yolov8n-cls.pt format=onnx imgsz=224,128
```
=== "विशेष"
संस्पेष्ट कमांडों को चलाएं ताकि संस्करण, सेटिंग देखें, चेक करें और अधिक देखें:
```bash
yolo help
yolo checks
yolo version
yolo settings
yolo copy-cfg
yolo cfg
```
!!! Warning "चेतावनी"
ताकि दुविधा न हो, तज़्ज़ा सेटिंग को `arg=val` जोड़े के रूप में पार करना होगा, जिन्हें `=` रेखा द्वारा विभाजित किया जाता है और जोड़ों के बीच अंतरित होता है। `--` तर्क-पूर्वक अंटीरे शब्द या `,` अंतराल द्वारा तर्कों का उपयोग न करें।
- `yolo predict model=yolov8n.pt imgsz=640 conf=0.25`
- `yolo predict model yolov8n.pt imgsz 640 conf 0.25` ❌ (अभाव `=`)
- `yolo predict model=yolov8n.pt, imgsz=640, conf=0.25` ❌ (`,` उपयोग न करें)
- `yolo predict --model yolov8n.pt --imgsz 640 --conf 0.25` ❌ (`--` उपयोग न करें)
एकेन्द्रीय योग्यताएँ [Configuration Guide](../usage/cfg.md) या `yolo cfg` CLI कमांड के साथ देखें।
## Python के साथ Ultralytics का उपयोग करें
YOLOv8 का Python इंटरफ़ेस आपकी Python परियोजनाओं में अंकित मिलने के लिए एक आसान तकनीक प्रदान करता है, जिसे हमारे पास शामिल करना आसान हो जाता है। उपयोगकर्ताओं को उनके परियोजनाओं में आपातकालीन पहुंच, चलाने और मॉडल के आउटपुट की प्रसंस्करण करने की आसानी के साथ प्रश्नोत्तरी, खंड, और वर्गीकरण कार्यों के लिए सुविधाजनक मूल्य प्रदान करता है। इस तकनीक के साथ, उपयोगकर्ताओं के लिए यह अद्वितीय साधन है जो अपनी Python परियोजनाओं में इन गुणों को शामिल करने की इच्छा रखते हैं।
उदाहरण के लिए, उपयोगकर्ता संख्या गिनती के लिए कुछ-कुछ तारणी की योजना में मॉडल को लोड करके उसे प्रशिक्षित कर सकते हैं, इसका मूल्यांकन समाप्त कर सकते हैं और यदि आवश्यक हो, उसे ONNX प्रारूप में निर्यात कर सकते हैं। अपनी Python परियोजनाओं में YOLOv8 का उपयोग करने के बारे में और अधिक जानने के लिए [Python Guide](../usage/python.md) देखें।
!!! Example
```python
from ultralytics import YOLO
# पूरी नई YOLO मॉडल बनाएँ
model = YOLO('yolov8n.yaml')
# प्रशिक्षित YOLO मॉडल लोड करें (प्रशिक्षण के लिए अनुशंसित है)
model = YOLO('yolov8n.pt')
# 3 एपोक्स के लिए "coco128.yaml" डेटासेट का उपयोग करके मॉडल को प्रशिक्षित करें
results = model.train(data='coco128.yaml', epochs=3)
# मॉडल के द्वारा मान्यता वाले सेट पर प्रदर्शन करें
results = model.val()
# मॉडल को उपयोग करके छवि पर डिटेक्शन करें
results = model('https://ultralytics.com/images/bus.jpg')
# मॉडल को ONNX प्रारूप में निर्यात करें
success = model.export(format='onnx')
```
[Python Guide](../usage/python.md){.md-button .md-button--primary}
## Ultralytics सेटिंग्स
Ultralytics लाइब्रेरी सेटिंग्स प्रबंधन प्रणाली प्रदान करती है ताकि आप अपने प्रयोगों पर फाइन-ग्रेन्ड नियंत्रण बनाए रख सकें। `ultralytics.utils` में स्थित `SettingsManager` का उपयोग करके उपयोगकर्ता अपनी सेटिंग्स तक पहुंच करके उन्हें पढ़ और बदल सकते हैं। इन्हें पायथन पर्यावरण के भीतर सीधे देखने और संशोधित करने के लिए, या CLI (कमांड लाइन इंटरफ़ेस) के माध्यम से किया जा सकता है।
### सेटिंग्स का गणना
अपनी सेटिंग्स के मौजूदा विन्यास की ओरदारी करने के लिए आप उन्हें सीधे देख सकते हैं:
!!! Example "सेटिंग्स देखें"
=== "पायथन"
आप PyTorch से `ultralytics` मॉड्यूल में `सेटिंग्स` ऑब्जेक्ट को आयात करके अपनी सेटिंग्स देख सकते हैं। `settings` ऑब्जेक्ट पर प्रिंट और रिटर्न सेटिंग्स के लिए निम्नलिखित कमांडों का उपयोग करें:
```python
from ultralytics import settings
# सभी सेटिंग्स देखें
print(settings)
# एक विशेष सेटिंग प्राप्त करें
value = settings['runs_dir']
```
=== "CLI"
यदि आप प्राथमिकताएँ लेते हैं CLI का उपयोग करना पसंद करते हैं, तो निम्नलिखित कमांड के माध्यम से अपनी सेटिंग्स की जांच कर सकते हैं:
```bash
yolo settings
```
### सेटिंग्स संशोधित करना
Ultralytics के सेटिंग्स को संशोधित करना आसान है। बदलावों को निम्न तरीकों से किया जा सकता है:
!!! Example "सेटिंग्स अपडेट करें"
=== "पायथन"
पायथन पर्यावरण के भीतर, अपनी सेटिंग्स पर `अपडेट` विधि को बुलाकर अपनी सेटिंग्स को बदल सकते हैं:
```python
from ultralytics import settings
# एक सेटिंग अपडेट करें
settings.update({'runs_dir': '/path/to/runs'})
# एकाधिक सेटिंग अपडेट करें
settings.update({'runs_dir': '/path/to/runs', 'tensorboard': False})
# डिफ़ॉल्ट मान में सेटिंग रीसेट करें
settings.reset()
```
=== "CLI"
यदि आप कमांड लाइन इंटरफ़ेस पर ध्यान देते हैं, तो निम्नलिखित कमांड के माध्यम से अपनी सेटिंग्स को संशोधित कर सकते हैं:
```bash
# एक सेटिंग अपडेट करें
yolo settings runs_dir='/path/to/runs'
# एकाधिक सेटिंग अपडेट करें
yolo settings runs_dir='/path/to/runs' tensorboard=False
# डिफ़ॉल्ट मान में सेटिंग्स को बराबरी में रीसेट करें
yolo settings reset
```
### सेटिंग्स को समझना
निम्नलिखित टेबल सेटिंग्स का अवलोकन प्रदान करता है, जबकि प्रति सेटिंग्स के लिए उदाहरण मान, डेटा प्रकार और संक्षेप में विवरण दिया गया है।
| नाम | उदाहरण मान | डेटा प्रकार | विवरण |
|--------------------|-----------------------|-------------|----------------------------------------------------------------------------------------------------------------------------|
| `settings_version` | `'0.0.4'` | `str` | Ultralytics _settings_ संस्करण (Ultralytics [pip](https://pypi.org/project/ultralytics/) संस्करण से अलग होता है) |
| `datasets_dir` | `'/path/to/datasets'` | `str` | डेटासेट को संग्रहीत करने वाली निर्देशिका | |
| `weights_dir` | `'/path/to/weights'` | `str` | मॉडल वेट को संग्रहीत करने वाली निर्देशिका |
| `runs_dir` | `'/path/to/runs'` | `str` | प्रयोग दौड़ को संग्रहीत करने वाली निर्देशिका |
| `uuid` | `'a1b2c3d4'` | `str` | मौजूदा सेटिंग्स के लिए अद्वितीय पहचानकर्ता |
| `sync` | `True` | `bool` | Ultralytics और दुविधा को HUB में समकालीन रखें |
| `api_key` | `''` | `str` | Ultralytics HUB [API Key](https://hub.ultralytics.com/settings?tab=api+keys) |
| `clearml` | `True` | `bool` | ClearML लॉगिंग का उपयोग करें |
| `comet` | `True` | `bool` | यदि [Comet ML](https://bit.ly/yolov8-readme-comet) प्रयोग करें या नहीं experiment ट्रैकिंग और visualization |
| `dvc` | `True` | `bool` | शोध और संस्करण नियंत्रण के लिए [DVC for experiment tracking](https://dvc.org/doc/dvclive/ml-frameworks/yolo) का उपयोग करें |
| `hub` | `True` | `bool` | [Ultralytics HUB](https://hub.ultralytics.com) एकीकरण का उपयोग करें |
| `mlflow` | `True` | `bool` | एक्सपेरिमेंट ट्रैकिंग के लिए MLFlow का उपयोग करें |
| `neptune` | `True` | `bool` | एक्सपेरिमेंट ट्रैकिंग के लिए Neptune का उपयोग करें |
| `raytune` | `True` | `bool` | hyperparameter tuning के लिए Ray Tune का उपयोग करें |
| `tensorboard` | `True` | `bool` | विज़ुअलाइज़ेशन के लिए TensorBoard का उपयोग करें |
| `wandb` | `True` | `bool` | Weights & Biases logging का उपयोग करें |
जब आप अपने परियोजनाओं या अनुभागों के माध्यम से चलते होने के द्वारा यात्रा करते हैं, तो इन सेटिंग्स पर सुधार करने के लिए लौटें।

172
docs/hi/tasks/classify.md Normal file
View file

@ -0,0 +1,172 @@
---
comments: true
description: YOLOv8 Classify मॉडल्स के बारे में जानें इमेज क्लासिफिकेशन के लिए। प्रीट्रेन्ड माॅडेल्स की सूची और ट्रेन, वेलिडेट, प्रेडिक्ट और एक्सपोर्ट माॅडेल्स के बारे में विस्तृत जानकारी प्राप्त करें।
keywords: Ultralytics, YOLOv8, इमेज क्लासिफिकेशन, प्रीट्रेन्ड माॅडेल्स, YOLOv8n-cls, ट्रेन, वेलिडेट, प्रेडिक्ट, माॅडेल एक्सपोर्ट
---
# इमेज क्लासिफिकेशन
<img width="1024" src="https://user-images.githubusercontent.com/26833433/243418606-adf35c62-2e11-405d-84c6-b84e7d013804.png" alt="इमेज क्लासिफिकेशन उदाहरण">
इमेज क्लासिफिकेशन तीन कार्यों में से सबसे सरल है और पूरी तस्वीर को एक पूर्वनिर्धारित कक्षा में वर्गीकृत करना शामिल होता है।
इमेज क्लासिफायर का आउटपुट एक एकल क्लास लेबल और एक विश्वास प्रामाणिकता स्कोर होता है। इमेज क्लासिफिकेशन उपयोगी होता है जब आपको केवल इसे जानने की जरूरत होती है कि एक इमेज किस कक्षा में सम्मिलित है और आपको नहीं पता होना चाहिए कि उस कक्षा के वस्त्राणु किस स्थान पर स्थित हैं या उनकी सटीक आकृति क्या है।
!!! Tip "टिप"
YOLOv8 Classify मॉडेल्स में `-cls` संकेतक प्रयोग किया जाता है, जैसे `yolov8n-cls.pt` और इन्हें पूर्व प्रशिक्षित किया जाता है [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) पर।
## [मॉडेल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8)
यहां YOLOv8 पूर्व प्रशिक्षित Classify मॉडेल दिखाए गए हैं। Detect, Segment, और Pose मॉडेल्स [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्व प्रशिक्षित होते हैं, जबकि Classify मॉडेल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्व प्रशिक्षित होते हैं।
[मॉडेल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) डाउनलोड पहली बार उपयोग पर ताजगी Ultralytics [प्रकाशन](https://github.com/ultralytics/assets/releases) से स्वतः होता है।
| मॉडेल | आकार<br><sup>(पिक्सेल) | तालिका<br><sup>शीर्ष 1 | तालिका<br><sup>शीर्ष 5 | स्पीड<br><sup>सीपीयू ONNX<br>(मि. सेकंड) | स्पीड<br><sup>A100 TensorRT<br>(मि. सेकंड) | पैरामीटर<br><sup>(M) | FLOPs<br><sup>(B) at 640 |
|----------------------------------------------------------------------------------------------|------------------------|------------------------|------------------------|------------------------------------------|--------------------------------------------|----------------------|--------------------------|
| [YOLOv8n-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-cls.pt) | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 |
| [YOLOv8s-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-cls.pt) | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 |
| [YOLOv8m-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-cls.pt) | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 |
| [YOLOv8l-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-cls.pt) | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 |
| [YOLOv8x-cls](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-cls.pt) | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 |
- **तालिका** मॉडेलों की ImageNet डेटासेट मान्यीकरण सेट पर सटीकता है।
<br>`yolo val classify data=path/to/ImageNet device=0` द्वारा पुनः उत्पन्न करें
- **स्पीड** एक [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इंस्टेंस का उपयोग करके ImageNet के वैल छवियों पर औसत जोड़ी गई है।
<br>`yolo val classify data=path/to/ImageNet batch=1 device=0|cpu` द्वारा पुनः उत्पन्न करें
## ट्रेन
100 एपॉक्स के लिए MNIST160 डेटासेट पर YOLOv8n-cls को 64 इमेज आकार पर रिक्तियों के साथ ट्रेन करें। उपलब्ध विकल्पों की पूरी सूची के लिए [Configuration](../../usage/cfg.md) पेज देखें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडेल लोड करें
model = YOLO('yolov8n-cls.yaml') # YAML से एक नया मॉडेल बनाएं
model = YOLO('yolov8n-cls.pt') # पूर्व प्रशिक्षित मॉडेल लोड करें (ट्रेनिंग के लिए सिफारिश की जाती है)
model = YOLO('yolov8n-cls.yaml').load('yolov8n-cls.pt') # YAML से बनाएँ और भार ट्रांसफर करें
# मॉडेल ट्रेन करें
results = model.train(data='mnist160', epochs=100, imgsz=64)
```
=== "CLI"
```bash
# YAML से नया मॉडेल बनाएं और अच्छे से प्रशिक्षण शुरू करें
yolo classify train data=mnist160 model=yolov8n-cls.yaml epochs=100 imgsz=64
# पूर्व प्रशिक्षित *.pt मॉडेल से प्रशिक्षण शुरू करें
yolo classify train data=mnist160 model=yolov8n-cls.pt epochs=100 imgsz=64
# YAML से नया मॉडेल बनाएँ, उसमें पूर्व प्रशिक्षित भार भी स्थानांतरित करें और प्रशिक्षण शुरू करें
yolo classify train data=mnist160 model=yolov8n-cls.yaml pretrained=yolov8n-cls.pt epochs=100 imgsz=64
```
### डेटासेट प्रारूप
YOLO क्लासिफिकेशन डेटासेट प्रारूप [Dataset Guide](../../datasets/classify/index.md) में विस्तृत रूप में दिया गया है।
## वेलिडेट
MNIST160 डेटासेट पर प्रशिक्षित YOLOv8n-cls मॉडेल की सटीकता का मूल्यांकन करें। कोई आर्गुमेंट चक्रवात नहीं करना चाहिए क्योंकि `मॉडेल` अपने प्रशिक्षण यथार्थ डेटा और आर्गुमेंट्स को स्मरण रखता है।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडेल लोड करें
model = YOLO('yolov8n-cls.pt') # एक आधिकारिक मॉडेल लोड करें
model = YOLO('path/to/best.pt') # एक स्वचालित मॉडेल लोड करें
# मॉडेल का मूल्यांकन करें
metrics = model.val() # कोई आर्गुमेंट आवश्यक नहीं हैं, डेटासेट और सेटिंग्स याद रखे जाते हैं
metrics.top1 # शीर्ष1 सटीकता
metrics.top5 # शीर्ष5 सटीकता
```
=== "CLI"
```bash
yolo classify val model=yolov8n-cls.pt # आधिकारिक मॉडेल का मूल्यांकन करें
yolo classify val model=path/to/best.pt # कस्टम मॉडेल का मूल्यांकन करें
```
## प्रेडिक्ट
प्रशिक्षित YOLOv8n-cls मॉडेल का उपयोग तस्वीरों पर पूर्वानुमान चलाने के लिए करें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# मॉडेल लोड करें
model = YOLO('yolov8n-cls.pt') # एक आधिकारिक मॉडेल लोड करें
model = YOLO('path/to/best.pt') # एक स्वचालित मॉडेल लोड करें
# मॉडेल के साथ पूर्वानुमान करें
results = model('https://ultralytics.com/images/bus.jpg') # एक इमेज पर पूर्वानुमान करें
```
=== "CLI"
```bash
yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडेल के साथ पूर्वानुमान करें
yolo classify predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडेल के साथ पूर्वानुमान करें
```
पूर्वानुमान पूरा होने के बाद निर्यात को सीधे पूर्वानुमानित मॉडेल पर लागू कर सकते हैं, जैसे `yolo predict model=yolov8n-cls.onnx`। एक्सपोर्ट पूर्ण होने के बाद, अपने मॉडेल के उपयोग के लिए आपको उपयोग उदाहरण दिखाए गए हैं।
## एक्सपोर्ट
YOLOv8n-cls मॉडल को ONNX, CoreML आदि जैसे विभिन्न प्रारूपों में निर्यात करें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडेल लोड करें
model = YOLO('yolov8n-cls.pt') # load an official model
model = YOLO('path/to/best.pt') # load a custom trained model
# मॉडेल को निर्यात करें
model.export(format='onnx')
```
=== "CLI"
```bash
yolo export model=yolov8n-cls.pt format=onnx # export official model
yolo export model=path/to/best.pt format=onnx # export custom trained model
```
टेबल में उपलब्ध YOLOv8-cls निर्यात प्रारूप निम्नानुसार हैं। निर्यात पूरा होने के बाद आप सीधे निर्यात किए गए मॉडेल पर पूर्व-आश्रिताओं की तरह पूर्वानुमान या मूल्यांकन कर सकते हैं, जैसे `yolo predict model=yolov8n-cls.onnx`। उपयोग की उदाहरण आपके मॉडेल के लिए निर्यात पूरा होने के बाद दिखाए गए हैं।
| प्रारूप | `format` आर्गुमेंट | मॉडेल | मेटाडेटा | आर्गुमेंट्स |
|--------------------------------------------------------------------|--------------------|-------------------------------|----------|-----------------------------------------------------|
| [PyTorch](https://pytorch.org/) | - | `yolov8n-cls.pt` | ✅ | - |
| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-cls.torchscript` | ✅ | `imgsz`, `optimize` |
| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-cls.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-cls_openvino_model/` | ✅ | `imgsz`, `half` |
| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-cls.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-cls.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-cls_saved_model/` | ✅ | `imgsz`, `keras` |
| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-cls.pb` | ❌ | `imgsz` |
| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-cls.tflite` | ✅ | `imgsz`, `half`, `int8` |
| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-cls_edgetpu.tflite` | ✅ | `imgsz` |
| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-cls_web_model/` | ✅ | `imgsz` |
| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-cls_paddle_model/` | ✅ | `imgsz` |
| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-cls_ncnn_model/` | ✅ | `imgsz`, `half` |
[Export](https://docs.ultralytics.com/modes/export/) पेज में `export` के पूरी विवरण देखें।

186
docs/hi/tasks/detect.md Normal file
View file

@ -0,0 +1,186 @@
---
comments: true
description: Ultralytics द्वारा YOLOv8 के आधिकारिक दस्तावेज़ीकरण। Various प्रारूपों में मॉडल को प्रशिक्षित, मान्य करें, निरुपित और निर्यात करने का कैसे करें सीखें। विस्तृत प्रदर्शन आँकड़े समेत।
keywords: YOLOv8, Ultralytics, वस्तु पहचान, पूर्वप्रशिक्षित मॉडल, प्रशिक्षण, मान्यता, भविष्यवाणी, मॉडल निर्यात, COCO, ImageNet, PyTorch, ONNX, CoreML
---
# वस्तु पहचान
<img width="1024" src="https://user-images.githubusercontent.com/26833433/243418624-5785cb93-74c9-4541-9179-d5c6782d491a.png" alt="वस्तु पहचान उदाहरण">
वस्तु पहचान एक कार्य है जिसमें चित्र या वीडियो स्ट्रीम में वस्तुओं की स्थान और वर्ग की पहचान करने का समय शामिल होता है।
वस्तु पहचान एक सेट होती है जिसमें वस्तुओं को घेरने वाले बाउंडिंग बॉक्स का पता लगाया जाता है, साथ ही प्रत्येक बॉक्स के लिए वर्ग लेबल और विश्वसनीयता स्कोर शामिल होते हैं। चित्र में हरी उड़ी रेस सामग्री डिटेक्ट करी, बांदर को डिटेक्ट करें. प्रतिस्थान से यह पता चलता है कि वस्तु कहाँ है या उसकी सटीक आकृति क्या है, परंतु कुछ तो हैं है।
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/5ku7npMrW40?si=6HQO1dDXunV8gekh"
title="YouTube वीडियो प्लेयर" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> पूर्व प्रशिक्षित Ultralytics YOLOv8 मॉडल के साथ वस्तु पहचान।
</p>
!!! Tip "टिप"
YOLOv8 Detect मॉडल डिफ़ॉल्ट YOLOv8 मॉडल हैं, यानी `yolov8n.pt` और [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) पर प्रशिक्षित हैं।
## [मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8)
YOLOv8 पूर्व प्रशिक्षित Detect मॉडल यहाँ दिखाए गए हैं। Detect, Segment और Pose मॉडल [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्वप्रशिक्षित होते हैं, जबकि Classify मॉडल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्वप्रशिक्षित होते हैं।
[मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) पहली बार इस्तेमाल पर Ultralytics के नवीनतम [प्रकाशन](https://github.com/ultralytics/assets/releases) से स्वचालित रूप से डाउनलोड होते हैं।
| मॉडल | साइज़<br><sup>(pixels) | mAP<sup>val<br>50-95 | स्पीड<sup>CPU ONNX<br>(ms) | स्पीड<sup>A100 TensorRT<br>(ms) | पैराम्स<br><sup>(M) | FLOPs<br><sup>(B) |
|--------------------------------------------------------------------------------------|------------------------|----------------------|----------------------------|---------------------------------|---------------------|-------------------|
| [YOLOv8n](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n.pt) | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 |
| [YOLOv8s](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s.pt) | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 |
| [YOLOv8m](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m.pt) | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 |
| [YOLOv8l](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l.pt) | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 |
| [YOLOv8x](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x.pt) | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 |
- **mAP<sup>val</sup>** मान को [COCO val2017](http://cocodataset.org) डेटासेट पर सिंगल-मॉडेल सिंगल-स्केल के लिए है।
<br>`yolo` द्वारा पुनः उत्पन्न करें `के द्वारा विन्यास करें yolo val data=coco.yaml device=0`
- **Speed** [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/)
इंस्टेंस का उपयोग करके COCO val छवियों पर औसत लिया जाता है।
<br>`yolo` के द्वारा पुनः उत्पन्न करें `के द्वारा विन्यास करें yolo val data=coco128.yaml batch=1 device=0|cpu`
## प्रशिक्षण
100 युगों में 640 आकृति वाले प्रशिक्षित योलोवी8 एन को COCO128 डेटासेट पर प्रशिक्षित करें। उपलब्ध तार्किक तर्कों की पूरी सूची के लिए [कॉन्फ़िगरेशन](../../usage/cfg.md) पृष्ठ देखें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# मॉडल लोड करें
model = YOLO('yolov8n.yaml') # YAML से नया मॉडल बनाएँ
model = YOLO('yolov8n.pt') # प्रशिक्षण के लिए सिफारिश किए गए पूर्वप्रशिक्षित मॉडल लोड करें
model = YOLO('yolov8n.yaml').load('yolov8n.pt') # YAML से बनाएं और भार ट्रांसफर करें और प्रशिक्षित करें
# मॉडल को प्रशिक्षित करें
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
```
=== "CLI"
```bash
# YAML से एक नया मॉडल बनाकर खाली से शुरू करें
yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640
# पूर्व प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640
# यैतायत्मिक रूप से भार ट्रांसफर करके नया मॉडल बनाएँ और प्रशिक्षण शुरू करें
yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
```
### डेटासेट प्रारूप
YOLO डिटेक्शन डेटासेट प्रारूप को [डेटासेट गाइड](../../datasets/detect/index.md) में विस्तार से देखा जा सकता है। कृपया अपने मौजूदा डेटासेट को अन्य प्रारूपों (जैसे COCO आदि) से YOLO प्रारूप में बदलने के लिए [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें।
## मान्यता
COCO128 डेटासेट पर प्रशिक्षित YOLOv8n मॉडल की सटीकता को मान्यता दें। मॉडल प्रदर्शन से जुड़ी कोई विधि नहीं होनी चाहिए।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# मॉडल लोड करें
model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें
model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें
# मॉडल की मान्यता जांचें
metrics = model.val() # तुलना करने के लिए कोई विधि की आवश्यकता नहीं है, डेटासेट और सेटिंग्स याद रखे जाते हैं
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # हर श्रेणी के map50-95 से संबंधित सूची
```
=== "CLI"
```bash
yolo detect val model=yolov8n.pt # आधिकारिक मॉडल की मान्यता
yolo detect val model=path/to/best.pt # कस्टम मॉडल की मान्यता
```
## भविष्यवाणी
प्रशिक्षित YOLOv8n मॉडल का उपयोग चित्रों पर भविष्यवाणी करने के लिए करें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# मॉडल लोड करें
model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें
model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें
# मॉडल के साथ भविष्यवाणी करें
results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर भविष्यवाणी करें
```
=== "CLI"
```bash
yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ भविष्यवाणी
yolo detect predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ भविष्यवाणी
```
पूर्ण `predict` मोड़ विवरण को [भविष्यवाणी](https://docs.ultralytics.com/modes/predict/) पृष्ठ में देखें।
## निर्यात
YOLOv8n मॉडल को अन्य प्रारूप (जैसे ONNX, CoreML आदि) में निर्यात करें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# मॉडल लोड करें
model = YOLO('yolov8n.pt') # आधिकारिक मॉडल लोड करें
model = YOLO('path/to/best.pt') # कस्टम प्रशिक्षित मॉडल लोड करें
# मॉडल को निर्यात करें
model.export(format='onnx')
```
=== "CLI"
```bash
yolo export model=yolov8n.pt format=onnx # आधिकारिक मॉडल को निर्यात करें
yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें
```
उपलब्ध YOLOv8 निर्यात प्रारूप नीचे की सारणी में हैं। आप निर्यातित मॉडल पर सीधे भविष्यवाणी या मान्यता कर सकते हैं, जैसे 'yolo predict model=yolov8n.onnx' आदि। निर्यात पूर्ण होने के बाद आपके मॉडल के उपयोग के उदाहरण दिखाए जाते हैं।
| प्रारूप | `format` तर्क | मॉडल | मेटाडाटा | तर्क |
|--------------------------------------------------------------------|---------------|---------------------------|----------|-----------------------------------------------------|
| [PyTorch](https://pytorch.org/) | - | `yolov8n.pt` | ✅ | - |
| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n.torchscript` | ✅ | `imgsz`, `optimize` |
| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n_openvino_model/` | ✅ | `imgsz`, `half`, `int8` |
| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n_saved_model/` | ✅ | `imgsz`, `keras`, `int8` |
| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n.pb` | ❌ | `imgsz` |
| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n.tflite` | ✅ | `imgsz`, `half`, `int8` |
| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n_edgetpu.tflite` | ✅ | `imgsz` |
| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n_web_model/` | ✅ | `imgsz` |
| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n_paddle_model/` | ✅ | `imgsz` |
| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n_ncnn_model/` | ✅ | `imgsz`, `half` |
पूर्ण `export` विवरण को [निर्यात](https://docs.ultralytics.com/modes/export/) पृष्ठ में देखें।

55
docs/hi/tasks/index.md Normal file
View file

@ -0,0 +1,55 @@
---
comments: true
description: जानें YOLOv8 जो कि विभिन्न कंप्यूटर विजन कार्यों जैसे डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन और पोज़ एस्टिमेशन को कर सकता है| अपनें AI प्रोजेक्ट्स म इन टास्क का उपयोग के बारें म मर्यादित हो जाएं
keywords: Ultralytics, YOLOv8, डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन, पोज़ एस्टिमेशन, AI Framework, कंप्यूटर विजन कार्य
---
# Ultralytics YOLOv8 तास्क
<br>
<img width="1024" src="https://raw.githubusercontent.com/ultralytics/assets/main/im/banner-tasks.png" alt="Ultralytics YOLO Supported टास्क्स">
YOLOv8 एक AI फ्रेमवर्क है जो मल्टीपल कंप्यूटर विजन **तास्क्स** को सपोर्ट करता है। इस फ्रेमवर्क का उपयोग [डिटेक्शन](detect.md), [सेग्मेंटेशन](segment.md), [क्लासिफिकेशन](classify.md), और [पोज़](pose.md) एस्टिमेशन को करने के लिए किया जा सकता हैं। हर टास्क का एक अलग उद्देश्य और यूज केस होता हैं।
!!! Note
🚧 हमारा मल्टी-भाषा डॉक्युमेंटेशन वर्तमान में निर्माणाधीन हैं, और हम उसे सुधारने के लिए मेहनत कर रहें हैं। आपकी सहानुभूति के लिए धन्यवाद! 🙏
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/NAs-cfq9BDw"
title="YouTube video player" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> जांचें Ultralytics YOLO टास्क्स: वस्तु डिटेक्शन, सेग्मेंटेशन, ट्रैकिंग और पोज़ एस्टिमेशन।
</p>
## [डिटेक्शन](detect.md)
डिटेक्शन YOLOv8 द्वारा सपोर्ट किया जाने वाला प्राथमिक टास्क हैं। इसका मतलब होता हैं कि एक छवि या वीडियो फ्रेम में वस्तुओं को खोजें और उनके चारों ओर ग्रेडीयेशन बॉक्स बनाएँ। पायी गयी वस्तुओं को उनके फीचर्स के आधार पर विभिन्न श्रेणियों में वर्गीकृत किया जाता हैं। YOLOv8 एक ही छवि या वीडियो फ्रेम में कई वस्तुएं पहचान सकती हैं और उसे उच्च सटीकता और गति से कर सकती हैं।
[डिटेक्शन उदाहरण](detect.md){ .md-button .md-button--primary}
## [सेग्मेंटेशन](segment.md)
सेग्मेंटेशन एक टास्क हैं जिसमे एक छवि को उसकी सामग्री के आधार पर विभिन्न क्षेत्रों में विभाजित किया जाता हैं। प्रत्येक क्षेत्र को उसकी सामग्री के आधार पर एक लेबल दिया जाता हैं। यह टास्क छवि सेग्मेंटेशन और मेडिकल इमेजिंग जैसे एप्लिकेशन्स में उपयोगी होती हैं। YOLOv8 सेग्मेंटेशन करने के लिए U-Net आर्किटेक्चर का इस्तेमाल करता हैं।
[सेग्मेंटेशन उदाहरण](segment.md){ .md-button .md-button--primary}
## [क्लासिफिकेशन](classify.md)
क्लासिफिकेशन एक टास्क हैं जिसमे एक छवि को विभिन्न श्रेणियों में वर्गीकृत किया जाता हैं। YOLOv8 का उपयोग छवियों को उनकी सामग्री के आधार पर क्लासिफाई करने के लिए किया जा सकता हैं। यह क्लासिफिकेशन करने के लिए EfficientNet आर्किटेक्चर का उपयोग करता हैं।
[क्लासिफिकेशन उदाहरण](classify.md){ .md-button .md-button--primary}
## [पोज़](pose.md)
पोज़/कीपॉइंट डिटेक्शन एक टास्क हैं जिसमे एक छवि या वीडियो फ्रेम में विशेष बिंदुओं को खोजें। इन बिंदुओं को कीपॉइंट कहा जाता हैं और इनका उपयोग गति या पोज़ एस्टिमेशन करने के लिए किया जाता हैं। YOLOv8 एक छवि या वीडियो फ्रेम में उच्च सटीकता और गति से कीपॉइंट डिटेक्ट कर सकता हैं।
[पोज़ उदाहरण](pose.md){ .md-button .md-button--primary}
## निष्कर्ष
YOLOv8 डिटेक्शन, सेग्मेंटेशन, क्लासिफिकेशन और कीपॉइंट डिटेक्शन जैसे मल्टीपल टास्क्स को सपोर्ट करता हैं। हर एक टास्क का अलग उद्देश्य और यूज केस होता हैं। इन टास्क्स के बीच अंतर को समझकर, आप अपने कंप्यूटर विजन एप्लिकेशन के लिए उचित टास्क का चुनाव कर सकते हैं।

183
docs/hi/tasks/pose.md Normal file
View file

@ -0,0 +1,183 @@
---
comments: true
description: Ultralytics YOLOv8 का उपयोग पोज निर्धारण कार्यों के लिए कैसे किया जाता है इसकी जानें। प्री-शिक्षित मॉडल ढूंढें, प्रशिक्षण, मान्यता प्राप्त करें, पूर्वानुमान लगाएं, और अपना खुद का निर्यात करें।
keywords: Ultralytics, YOLO, YOLOv8, pose estimation, keypoints detection, object detection, pre-trained models, machine learning, artificial intelligence
---
# पोज निर्धारण
<img width="1024" src="https://user-images.githubusercontent.com/26833433/243418616-9811ac0b-a4a7-452a-8aba-484ba32bb4a8.png" alt="पोज निर्धारण उदाहरण">
पोज निर्धारण एक कार्य है जिसमें एक छवि में विशेष बिंदुओं के स्थान की पहचान करना शामिल होता है, जिसे आमतौर पर कीपॉइंट्स के रूप में कहा जाता है। कीपॉइंट्स विभिन्न अंगों, भूमिकाओं या अन्य विशिष्ट सुविधाओं आदि के रूप में वस्तु के विभिन्न हिस्सों को प्रतिष्ठित कर सकते हैं। कीपॉइंट्स के स्थान आमतौर पर 2D `[x, y]` या 3D `[x, y, दिखाई देने वाला]` कोआर्डिनेट के सेट के रूप में प्रदर्शित होते हैं।
पोज निर्धारण मॉडल की उत्पादन एक छवि में वस्तु के कीपॉइंट्स को प्रतिष्ठित करने वाले कुछ बिंदुओं का सेट होती है, आमतौर पर हर बिंदु के लिए विश्वसनीयता स्कोर के साथ। पोज निर्धारण उचित विकल्प है जब आपको स्टीन में एक वस्तु के विशेष हिस्सों की पहचान करनी होती है और विभिन्न हिस्सों के लिए उनके स्थान की पहचान करनी होती है।
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/Y28xXQmju64?si=pCY4ZwejZFu6Z4kZ"
title="YouTube वीडियो प्लेयर" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> Ultralytics YOLOv8 के साथ पोज निर्धारण।
</p>
!!! Tip "युक्ति"
YOLOv8 _pose_ मॉडल में `-pose` सफिक्स का उपयोग किया जाता है, जैसे `yolov8n-pose.pt`। ये मॉडल [COCO कीपॉइंट](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) डेटासेट पर प्रशिक्षित होते हैं और विभिन्न पोज निर्धारण कार्यों के लिए उपयुक्त होते हैं।
## [मॉडल्स](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8)
YOLOv8 पूर्वानुमानित पोज मॉडलस यहाँ दिखाए जाते हैं। पहचानें, अंश और पोज मॉडल मुख्यतः [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर प्रशिक्षित हैं, जबकि क्लासिफाई मॉडल्स को [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर प्रशिक्षित किया जाता है।
पूर्वानुमानित मॉडल `Models` को Ultralytics के नवीनतम [रिलीज़](https://github.com/ultralytics/assets/releases) से स्वचालित रूप से डाउनलोड करेंगे।
| मॉडल | आकार<br><sup>(तत्व) | mAP<sup>पोज<br>50-95 | mAP<sup>पोज<br>50 | ह्वेग<br><sup>CPU ONNX<br>(ms) | ह्वेग<br><sup>A100 TensorRT<br>(ms) | पैराम्स<br><sup>(M) | FLOPs<br><sup>(B) |
|------------------------------------------------------------------------------------------------------|---------------------|----------------------|-------------------|--------------------------------|-------------------------------------|---------------------|-------------------|
| [YOLOv8n-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-pose.pt) | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 |
| [YOLOv8s-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-pose.pt) | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 |
| [YOLOv8m-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-pose.pt) | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 |
| [YOLOv8l-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-pose.pt) | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 |
| [YOLOv8x-pose](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-pose.pt) | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 |
| [YOLOv8x-pose-p6](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-pose-p6.pt) | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 |
- **mAP<sup>val</sup>** मान एकल मॉडल एकल स्केल पर [COCO कीपॉइंट val2017](http://cocodataset.org) डेटासेट पर है।
<br>`yolo val pose data=coco-pose.yaml device=0` के द्वारा पुनरोत्पादित करें
- **Speed** [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इन्स्टेंस का उपयोग करते हुए COCO val छवियों पर औसतित गणना।
<br>`yolo val pose data=coco8-pose.yaml batch=1 device=0|cpu` के द्वारा पुनरार्चन करें
## ट्रेन
COCO128-pose डेटासेट पर YOLOv8-pose मॉडल को प्रशिक्षित करें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('yolov8n-pose.yaml') # YAML से एक नया मॉडल बनाएँ
model = YOLO('yolov8n-pose.pt') # पूर्वानुमानित मॉडल लोड करें (प्रशिक्षण के लिए सिफारिश किया जाता है)
model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # YAML से बनाएँ और वजन स्थानांतरित करें
# मॉडल को प्रशिक्षित करें
results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640)
```
=== "CLI"
```bash
# YAML से नया मॉडल बनाएँ और पूर्वानुमानित वजन स्थानांतरित करना शुरू करें
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640
# पूर्वानुमानित *.pt मॉडल से प्रशिक्षण शुरू करें
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640
# YAML से नया मॉडल बनाएँ, पूर्वानुमानित वजनों को स्थानांतरित करें और प्रशिक्षण शुरू करें
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640
```
### डेटासेट प्रारूप
YOLO पोज डेटासेट प्रारूप को विस्तार से [डेटासेट गाइड](../../datasets/pose/index.md) में दिया गया है। अपनी मौजूदा डेटासेट को अन्य प्रारूपों (जैसे कि COCO आदि) से YOLO प्रारूप में रूपांतरित करने के लिए कृपया [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें।
## मान्यता प्राप्त करें
COCO128-pose डेटासेट पर प्रशिक्षित YOLOv8n-pose मॉडल की सटीकता को मान्यता प्राप्त करें। `model` के रूप में कोई आर्ग्युमेंट पारित करने की आवश्यकता नहीं है प्रशिक्षण `data` और सेटिंग्स को मॉडल खिताबों के रूप में रखता है।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें
model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें
# मॉडल की सटीकता मान्यता प्राप्त करें
metrics = model.val() # कोई आर्ग्युमेंट आवश्यक नहीं है, डेटासेट और सेटिंग्स याद रखा जाता है
metrics.box.map # map50-95
metrics.box.map50 # map50
metrics.box.map75 # map75
metrics.box.maps # प्रत्येक श्रेणी के map50-95 सूची में है
```
=== "CLI"
```bash
yolo pose val model=yolov8n-pose.pt # आधिकारिक मॉडल मान्यांकन करें
yolo pose val model=path/to/best.pt # कस्टम मॉडल को मान्यता प्राप्त करें
```
## पूर्वानुमान लगाएं
प्रशिक्षित YOLOv8n-pose मॉडल के साथ छवियों पर पूर्वानुमान चलाएं।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें
model = YOLO('path/to/best.pt') # एक कस्टम मॉडल लोड करें
# मॉडल के साथ पूर्वानुमान करें
results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर पूर्वानुमान करें
```
=== "CLI"
```bash
yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ पूर्वानुमान लगाएं
yolo pose predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ पूर्वानुमान लगाएं
```
एक्सपोर्ट
YOLOv8n पोज मॉडल को ONNX, CoreML जैसे अन्य प्रारूप में निर्यात करें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# एक मॉडल लोड करें
model = YOLO('yolov8n-pose.pt') # रिपोर्टेड मॉडल लोड करें
model = YOLO('path/to/best.pt') # एक कस्टम प्रशिक्षित मॉडल लोड करें
# मॉडल को निर्यात करें
model.export(format='onnx')
```
=== "CLI"
```bash
yolo export model=yolov8n-pose.pt format=onnx # आधिकारिक मॉडल को निर्यात करें
yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें
```
निर्यात के लिए उपलब्ध YOLOv8-pose निर्यात प्रारूप नीचे करें दिए गए हैं। आप निर्यात किए गए मॉडल पर सीधा पूर्वानुमान या मान्यता कर सकते हैं, उदाहरण के लिए `yolo predict model=yolov8n-pose.onnx`। निर्यात पूरा होने के बाद अपने मॉडल के उपयोग के उदाहरण दिखाए गए हैं।
| प्रारूप | `format` आर्ग्युमेंट | मॉडल | मेटाडेटा | आर्ग्युमेंट। |
|--------------------------------------------------------------------|----------------------|--------------------------------|----------|-----------------------------------------------------|
| [PyTorch](https://pytorch.org/) | - | `yolov8n-pose.pt` | ✅ | - |
| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-pose.torchscript` | ✅ | `imgsz`, `optimize` |
| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-pose.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-pose_openvino_model/` | ✅ | `imgsz`, `half` |
| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-pose.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-pose.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-pose_saved_model/` | ✅ | `imgsz`, `keras` |
| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-pose.pb` | ❌ | `imgsz` |
| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-pose.tflite` | ✅ | `imgsz`, `half`, `int8` |
| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-pose_edgetpu.tflite` | ✅ | `imgsz` |
| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-pose_web_model/` | ✅ | `imgsz` |
| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-pose_paddle_model/` | ✅ | `imgsz` |
| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-pose_ncnn_model/` | ✅ | `imgsz`, `half` |
निर्यात विवरण के लिए [निर्यात](https://docs.ultralytics.com/modes/export/) पृष्ठ देखें।

187
docs/hi/tasks/segment.md Normal file
View file

@ -0,0 +1,187 @@
---
comments: true
description: Ultralytics YOLO के साथ उदाहरण देखें कि कैसे instance segmentation मॉडल का उपयोग करें। प्रशिक्षण, मान्यता, छवि की भविष्यवाणी और मॉडल निर्यात पर निर्देश।
keywords: yolov8, instance segmentation, Ultralytics, COCO dataset, image segmentation, object detection, model training, model validation, image prediction, model export
---
# Instance Segmentation
इंस्टेंस सेगमेंटेशन ऑब्जेक्ट डिटेक्शन से एक कदम आगे जाता है और छवि में व्यक्ति ऑब्जेक्ट की पहचान करता है और उन्हें छवि के बाकी हिस्से से विभाजित करता है।
इंस्टेंस सेगमेंटेशन मॉडल का आउटपुट एक सेट मास्क या कंटोर होता है जो छवि में प्रत्येक ऑब्जेक्ट का संकेत देता है, साथ ही प्रत्येक ऑब्जेक्ट के लिए वर्ग लेबल और आत्मविश्वास स्कोर होता है। इंस्टेंस सेगमेंटेशन उपयोगी होता है जब आपको न केवल पता चलेगा कि छवि में ऑब्जेक्ट कहाँ हैं, बल्कि वास्तव में उनका वास्तविक आकार क्या है।
<p align="center">
<br>
<iframe width="720" height="405" src="https://www.youtube.com/embed/o4Zd-IeMlSY?si=37nusCzDTd74Obsp"
title="YouTube video player" frameborder="0"
allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share"
allowfullscreen>
</iframe>
<br>
<strong>देखें:</strong> पायथन में पूर्व-प्रशिक्षित Ultralytics YOLOv8 मॉडल के साथ Segmentation चलाएं।
</p>
!!! Tip "टिप"
YOLOv8 Segment मॉडल `yolov8n-seg.pt` का उपयोग करते हैं, और इसे [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) पर पूरी प्रशिक्षित किया जाता है।
## [मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models/v8)
YOLOv8 पूर्व प्रशिक्षित Segment मॉडल यहां दिखाए गए हैं। Detect, Segment और Pose मॉडल [COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml) डेटासेट पर पूर्व प्रशिक्षित हैं, जबकि Classify मॉडल [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) डेटासेट पर पूर्व प्रशिक्षित हैं।
[मॉडल](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/models) को उपयोग करके Ultralytics [रिलीज़](https://github.com/ultralytics/assets/releases) से पूर्ण डाउनलोड होते हैंं।
| मॉडल | आकार<br><sup>(पिक्सेल) | mAP<sup>बॉक्स<br>50-95 | mAP<sup>मास्क<br>50-95 | स्पीड<br><sup>CPU ONNX<br>(मि.सेकंड) | स्पीड<br><sup>A100 TensorRT<br>(मि.सेकंड) | पैराम्स<br><sup>(M) | FLOPs<br><sup>(B) |
|----------------------------------------------------------------------------------------------|------------------------|------------------------|------------------------|--------------------------------------|-------------------------------------------|---------------------|-------------------|
| [YOLOv8n-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n-seg.pt) | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 |
| [YOLOv8s-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s-seg.pt) | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 |
| [YOLOv8m-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m-seg.pt) | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 |
| [YOLOv8l-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l-seg.pt) | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 |
| [YOLOv8x-seg](https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x-seg.pt) | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 |
- **mAP<sup>val</sup>** मान एकल मॉडल एकल स्केल के लिए [COCO val2017](http://cocodataset.org) डेटासेट पर होते हैं।
<br>`yolo val segment data=coco.yaml device=0` के द्वारा पुनर्जीवित किए जाएं।
- **स्पीड** एक [Amazon EC2 P4d](https://aws.amazon.com/ec2/instance-types/p4/) इंस्टेंस का उपयोग करते हुए COCO val छवियों के बीच औसतन।
<br>`yolo val segment data=coco128-seg.yaml batch=1 device=0|cpu` के द्वारा पुनर्जीवित किए जा सकते हैं।
## प्रशिक्षण
100 एपॉक्स पर 640 छवि के आकार के COCO128-seg डेटासेट पर YOLOv8n-seg को प्रशिक्षित करें। उपलब्ध तार्किक तर्क की पूरी सूची के लिए [Configuration](../../usage/cfg.md) पृष्ठ देखें।
!!! Example "उदाहरण"
=== "पायथन"
```python
from ultralytics import YOLO
# मॉडल लोड करें
model = YOLO('yolov8n-seg.yaml') # YAML से नया मॉडल बनाएं
model = YOLO('yolov8n-seg.pt') # पूर्व-प्रशिक्षित मॉडल लोड करें (प्रशिक्षण के लिए सिफारिश की जाती है)
model = YOLO('yolov8n-seg.yaml').load('yolov8n.pt') # YAML से नए मॉडल बनाएं और धारित करें
# मॉडल प्रशिक्षित करें
results = model.train(data='coco128-seg.yaml', epochs=100, imgsz=640)
```
=== "CLI"
```bash
# YAML से नया मॉडल बनाएं और शून्य से प्रशिक्षण शुरू करें
yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml epochs=100 imgsz=640
# पूर्व-प्रशिक्षित *.pt मॉडल से प्रशिक्षण शुरू करें
yolo segment train data=coco128-seg.yaml model=yolov8n-seg.pt epochs=100 imgsz=640
# YAML से नया मॉडल बनाएं, पूर्व-प्रशिक्षित वजनों को इसे ट्रांसफर करें और प्रशिक्षण शुरू करें
yolo segment train data=coco128-seg.yaml model=yolov8n-seg.yaml pretrained=yolov8n-seg.pt epochs=100 imgsz=640
```
### डेटासेट प्रारूप
YOLO सेगमेंटेशन डेटासेट प्रारूप [डेटासेट गाइड](../../datasets/segment/index.md) में विस्तार से देखा जा सकता है। कृपया अपने मौजूदा डेटासेट को अन्य प्रारूपों (जैसे कि COCO आदि) से YOLO प्रारूप में परिवर्तित करने के लिए [JSON2YOLO](https://github.com/ultralytics/JSON2YOLO) उपकरण का उपयोग करें।
## मान्यता
COCO128-seg डेटासेट पर प्रशिक्षित YOLOv8n-seg मॉडल की सत्यापन करें। `मॉडल` पास करने के लिए कोई तर्क आवश्यक नहीं होता है क्योंकि `मॉडल`
प्रशिक्षण के `डेटा` और तर्कों का ध्यान रखता है।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# मॉडल लोड करें
model = YOLO('yolov8n-seg.pt') # आधिकारिक मॉडल लोड करें
model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें
# मॉडल की सत्यापना करें
metrics = model.val() # कोई तर्क आवश्यक नहीं है, डेटा और सेटिंग्स याद रखे जाते हैं
metrics.box.map # map50-95(B)
metrics.box.map50 # map50(B)
metrics.box.map75 # map75(B)
metrics.box.maps # एक सूची है जिसमें प्रत्येक श्रेणी का map50-95(B) होता है
metrics.seg.map # map50-95(M)
metrics.seg.map50 # map50(M)
metrics.seg.map75 # map75(M)
metrics.seg.maps # एक सूची है जिसमें प्रत्येक श्रेणी का map50-95(M) होता है
```
=== "CLI"
```bash
yolo segment val model=yolov8n-seg.pt # आधिकारिक मॉडल की मान्यता
yolo segment val model=path/to/best.pt # कस्टम मॉडल की मान्यता
```
## भविष्यवाणी
प्रशिक्षित YOLOv8n-seg मॉडल का उपयोग छवियों पर भविष्यवाणी करने के लिए करें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# मॉडल लोड करें
model = YOLO('yolov8n-seg.pt') # आधिकारिक मॉडल लोड करें
model = YOLO('path/to/best.pt') # कस्टम मॉडल लोड करें
# मॉडल के साथ भविष्यवाणी करें
results = model('https://ultralytics.com/images/bus.jpg') # एक छवि पर भविष्यवाणी करें
```
=== "CLI"
```bash
yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' # आधिकारिक मॉडल के साथ भविष्यवाणी करें
yolo segment predict model=path/to/best.pt source='https://ultralytics.com/images/bus.jpg' # कस्टम मॉडल के साथ भविष्यवाणी करें
```
भविष्यवाणी मोड के पूर्ण विवरण को [Predict](https://docs.ultralytics.com/modes/predict/) पृष्ठ में देखें।
## निर्यात
YOLOv8n-seg मॉडल को ONNX, CoreML आदि जैसे अन्य प्रारूप में निर्यात करें।
!!! Example "उदाहरण"
=== "Python"
```python
from ultralytics import YOLO
# मॉडल लोड करें
model = YOLO('yolov8n-seg.pt') # आधिकारिक मॉडल लोड करें
model = YOLO('path/to/best.pt') # कस्टम प्रशिक्षित मॉडल लोड करें
# मॉडल निर्यात करें
model.export(format='onnx')
```
=== "CLI"
```bash
yolo export model=yolov8n-seg.pt format=onnx # आधिकारिक मॉडल को निर्यात करें
yolo export model=path/to/best.pt format=onnx # कस्टम प्रशिक्षित मॉडल को निर्यात करें
```
YOLOv8-seg निर्यात प्रारूप निम्नलिखित तालिका में बताए गए हैं। आप निर्यात किए गए मॉडल पर सीधे भविष्यवाणी या मान्यता कर सकते हैं, अर्थात `yolo predict model=yolov8n-seg.onnx`। निर्यात होने के बाद अपने मॉडल के लिए उपयोग के उदाहरण देखें।
| प्रारूप | `format` Argument | मॉडल | मेटाडेटा | तर्क |
|--------------------------------------------------------------------|-------------------|-------------------------------|----------|-----------------------------------------------------|
| [PyTorch](https://pytorch.org/) | - | `yolov8n-seg.pt` | ✅ | - |
| [TorchScript](https://pytorch.org/docs/stable/jit.html) | `torchscript` | `yolov8n-seg.torchscript` | ✅ | `imgsz`, `optimize` |
| [ONNX](https://onnx.ai/) | `onnx` | `yolov8n-seg.onnx` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `opset` |
| [OpenVINO](https://docs.openvino.ai/latest/index.html) | `openvino` | `yolov8n-seg_openvino_model/` | ✅ | `imgsz`, `half` |
| [TensorRT](https://developer.nvidia.com/tensorrt) | `engine` | `yolov8n-seg.engine` | ✅ | `imgsz`, `half`, `dynamic`, `simplify`, `workspace` |
| [CoreML](https://github.com/apple/coremltools) | `coreml` | `yolov8n-seg.mlpackage` | ✅ | `imgsz`, `half`, `int8`, `nms` |
| [TF SavedModel](https://www.tensorflow.org/guide/saved_model) | `saved_model` | `yolov8n-seg_saved_model/` | ✅ | `imgsz`, `keras` |
| [TF GraphDef](https://www.tensorflow.org/api_docs/python/tf/Graph) | `pb` | `yolov8n-seg.pb` | ❌ | `imgsz` |
| [TF Lite](https://www.tensorflow.org/lite) | `tflite` | `yolov8n-seg.tflite` | ✅ | `imgsz`, `half`, `int8` |
| [TF Edge TPU](https://coral.ai/docs/edgetpu/models-intro/) | `edgetpu` | `yolov8n-seg_edgetpu.tflite` | ✅ | `imgsz` |
| [TF.js](https://www.tensorflow.org/js) | `tfjs` | `yolov8n-seg_web_model/` | ✅ | `imgsz` |
| [PaddlePaddle](https://github.com/PaddlePaddle) | `paddle` | `yolov8n-seg_paddle_model/` | ✅ | `imgsz` |
| [ncnn](https://github.com/Tencent/ncnn) | `ncnn` | `yolov8n-seg_ncnn_model/` | ✅ | `imgsz`, `half` |
[Export](https://docs.ultralytics.com/modes/export/) पृष्ठ में पूर्ण `निर्यात` विवरण देखें।