Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)
Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
parent
b6baae584c
commit
02bf8003a8
337 changed files with 6584 additions and 777 deletions
|
|
@ -32,7 +32,7 @@ keywords: Ultralytics, YOLOv8, ベンチマーク, スピードプロファイ
|
|||
- **OpenVINO:** Intelハードウェアの最適化のために
|
||||
- **CoreML, TensorFlow SavedModel など:** 多様なデプロイメントニーズに。
|
||||
|
||||
!!! tip "ヒント"
|
||||
!!! Tip "ヒント"
|
||||
|
||||
* CPUスピードアップのためにONNXまたはOpenVINOにエクスポートする。
|
||||
* GPUスピードアップのためにTensorRTにエクスポートする。
|
||||
|
|
@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, ベンチマーク, スピードプロファイ
|
|||
|
||||
ONNX、TensorRTなど、すべてのサポートされるエクスポート形式でYOLOv8nベンチマークを実行します。完全なエクスポート引数のリストについては、以下のArgumentsセクションを参照してください。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, モデルエキスポート, ONNX, TensorRT
|
|||
- **最適化推論:** より高速な推論のために最適化されたエキスポートモデル。
|
||||
- **チュートリアル動画:** スムーズなエキスポート体験のための詳細なガイドとチュートリアル。
|
||||
|
||||
!!! tip "ヒント"
|
||||
!!! Tip "ヒント"
|
||||
|
||||
* ONNXまたはOpenVINOへのエキスポートで最大3倍のCPU速度アップ。
|
||||
* TensorRTへのエキスポートで最大5倍のGPU速度アップ。
|
||||
|
|
@ -48,7 +48,7 @@ keywords: YOLO, YOLOv8, Ultralytics, モデルエキスポート, ONNX, TensorRT
|
|||
|
||||
YOLOv8nモデルをONNXやTensorRTなどの異なるフォーマットにエキスポートします。エキスポート引数のフルリストについては、以下のArgumentsセクションをご覧ください。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -50,7 +50,7 @@ YOLOv8の予測モードは、頑健で多様性があり、次の特徴を備
|
|||
|
||||
UltralyticsのYOLOモデルは、`stream=True`が推論中にモデルに渡されると、Pythonの`Results`オブジェクトのリストまたは`Results`オブジェクトのメモリ効率の良いPythonジェネレータのいずれかを返します:
|
||||
|
||||
!!! 例 "予測"
|
||||
!!! Example "予測"
|
||||
|
||||
=== "`stream=False`でリストを返す"
|
||||
```python
|
||||
|
|
@ -92,7 +92,7 @@ UltralyticsのYOLOモデルは、`stream=True`が推論中にモデルに渡さ
|
|||
|
||||
YOLOv8は、以下の表に示されるように、異なるタイプの入力ソースを推論に処理できます。ソースには静止画像、動画ストリーム、およびさまざまなデータフォーマットが含まれます。表には、各ソースがストリーミングモードで使用できるかどうかも示されており、引数`stream=True`で✅が表示されています。ストリーミングモードは、動画やライブストリームを処理する場合に有利であり、すべてのフレームをメモリにロードする代わりに結果のジェネレータを作成します。
|
||||
|
||||
!!! ヒント "ヒント"
|
||||
!!! Tip "ヒント"
|
||||
|
||||
長い動画や大きなデータセットを効率的にメモリ管理するために`stream=True`を使用します。`stream=False`では、すべてのフレームまたはデータポイントの結果がメモリに格納されますが、大きな入力で迅速にメモリが積み上がり、メモリ不足のエラーを引き起こす可能性があります。対照的に、`stream=True`はジェネレータを利用し、現在のフレームまたはデータポイントの結果のみをメモリに保持し、メモリ消費を大幅に削減し、メモリ不足の問題を防ぎます。
|
||||
|
||||
|
|
@ -115,7 +115,7 @@ YOLOv8は、以下の表に示されるように、異なるタイプの入力
|
|||
|
||||
以下は、それぞれのソースタイプを使用するためのコード例です:
|
||||
|
||||
!!! 例 "予測ソース"
|
||||
!!! Example "予測ソース"
|
||||
|
||||
=== "画像"
|
||||
画像ファイルに推論を実行します。
|
||||
|
|
|
|||
|
|
@ -58,7 +58,7 @@ Ultralytics YOLOは、次のトラッキングアルゴリズムをサポート
|
|||
|
||||
ビデオストリームでトラッカーを実行するには、YOLOv8n、YOLOv8n-seg、YOLOv8n-poseなどのトレーニング済みのDetect、Segment、またはPoseモデルを使用します。
|
||||
|
||||
!!! 例 ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -97,7 +97,7 @@ Ultralytics YOLOは、次のトラッキングアルゴリズムをサポート
|
|||
|
||||
トラッキング構成は、`conf`、`iou`、および`show`などのPredictモードと同じプロパティを共有します。さらなる構成については、[Predict](https://docs.ultralytics.com/modes/predict/)モデルページを参照してください。
|
||||
|
||||
!!! 例 ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -120,7 +120,7 @@ Ultralytics YOLOは、次のトラッキングアルゴリズムをサポート
|
|||
|
||||
Ultralyticsは、変更されたトラッカー構成ファイルの使用も可能にします。これを行うには、[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)からトラッカー構成ファイル(たとえば`custom_tracker.yaml`)のコピーを作成し、必要に応じて任意の構成(`tracker_type`を除く)を変更します。
|
||||
|
||||
!!! 例 ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -147,7 +147,7 @@ Ultralyticsは、変更されたトラッカー構成ファイルの使用も可
|
|||
|
||||
次は、OpenCV (`cv2`)とYOLOv8を使用してビデオフレームでオブジェクトトラッキングを実行するPythonスクリプトです。このスクリプトでは、必要なパッケージ(`opencv-python`および`ultralytics`)が既にインストールされていることが前提です。`persist=True`引数は、トラッカーに現在の画像またはフレームがシーケンスの次のものであり、現在の画像に前の画像からのトラックを期待することを伝えます。
|
||||
|
||||
!!! 例 "トラッキングを伴うストリーミングforループ"
|
||||
!!! Example "トラッキングを伴うストリーミングforループ"
|
||||
|
||||
```python
|
||||
import cv2
|
||||
|
|
|
|||
|
|
@ -41,7 +41,7 @@ YOLOv8のトレーニングモードを選択するいくつかの魅力的な
|
|||
- **ハイパーパラメータの設定:** YAML設定ファイルやCLI引数を通じてハイパーパラメータを変更するオプション。
|
||||
- **可視化とモニタリング:** トレーニング指標のリアルタイム追跡と学習プロセスの可視化により、より良い洞察を得ます。
|
||||
|
||||
!!! tip "ヒント"
|
||||
!!! Tip "ヒント"
|
||||
|
||||
* YOLOv8のデータセット、例えばCOCO、VOC、ImageNetなどは、最初の使用時に自動的にダウンロードされます。例:`yolo train data=coco.yaml`
|
||||
|
||||
|
|
@ -49,7 +49,7 @@ YOLOv8のトレーニングモードを選択するいくつかの魅力的な
|
|||
|
||||
COCO128データセットでYOLOv8nを100エポック、画像サイズ640でトレーニングする。トレーニングデバイスは、`device`引数を使って指定できます。引数が渡されない場合、利用可能であればGPU `device=0`が、そうでなければ`device=cpu`が利用されます。全てのトレーニング引数のリストは以下の引数セクションを参照してください。
|
||||
|
||||
!!! example "シングルGPUとCPUトレーニング例"
|
||||
!!! Example "シングルGPUとCPUトレーニング例"
|
||||
|
||||
デバイスは自動的に決定されます。GPUが利用可能であればそれが使用され、そうでなければCPUでトレーニングが開始されます。
|
||||
|
||||
|
|
@ -84,7 +84,7 @@ COCO128データセットでYOLOv8nを100エポック、画像サイズ640でト
|
|||
|
||||
マルチGPUトレーニングは、利用可能なハードウェアリソースをより効率的に活用するために、トレーニングの負荷を複数のGPUに分散させることを可能にします。この機能はPython APIとコマンドラインインターフェィスの両方を通じて利用できます。マルチGPUトレーニングを有効にするには、使用したいGPUデバイスIDを指定します。
|
||||
|
||||
!!! example "マルチGPUトレーニング例"
|
||||
!!! Example "マルチGPUトレーニング例"
|
||||
|
||||
2つのGPUを使ってトレーニングするには、CUDAデバイス0と1を使い以下のコマンドを使用します。必要に応じて追加のGPUに拡張します。
|
||||
|
||||
|
|
@ -113,7 +113,7 @@ AppleのM1およびM2チップに対するサポートがUltralyticsのYOLOモ
|
|||
|
||||
AppleのM1およびM2チップでのトレーニングを有効にするには、トレーニングプロセスを開始する際に`mps`をデバイスとして指定する必要があります。以下はPythonおよびコマンドラインでこれを行う例です:
|
||||
|
||||
!!! example "MPSトレーニング例"
|
||||
!!! Example "MPSトレーニング例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -148,7 +148,7 @@ YOLOv8モデルをトレーニングする際、モデルのパフォーマン
|
|||
|
||||
Cometを使用するには:
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -166,7 +166,7 @@ Cometアカウントにサインインし、APIキーを取得してください
|
|||
|
||||
ClearMLを使用するには:
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -184,7 +184,7 @@ ClearMLを使用するには:
|
|||
|
||||
[Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb)でTensorBoardを使用するには:
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
@ -194,7 +194,7 @@ ClearMLを使用するには:
|
|||
|
||||
TensorBoardをローカルで使用する場合は、http://localhost:6006/ で結果を確認できます。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
|
|||
|
|
@ -30,7 +30,7 @@ YOLOv8のValモードにより提供される注目すべき機能は以下の
|
|||
- **CLI and Python API:** バリデーションにコマンドラインインターフェイスもしくはPython APIのどちらかを選択できます。
|
||||
- **Data Compatibility(データ互換性):** 訓練段階で使われたデータセットはもちろん、カスタムデータセットともシームレスに動作します。
|
||||
|
||||
!!! tip "Tip"
|
||||
!!! Tip "Tip"
|
||||
|
||||
* YOLOv8モデルは訓練設定を自動的に記憶しているので、`yolo val model=yolov8n.pt`や`model('yolov8n.pt').val()`だけで、元のデータセットと同じ画像サイズで簡単にバリデーション可能です。
|
||||
|
||||
|
|
@ -38,7 +38,7 @@ YOLOv8のValモードにより提供される注目すべき機能は以下の
|
|||
|
||||
COCO128データセット上で訓練済みのYOLOv8nモデルの精度を検証します。`model`はその訓練時の`data`及び引数をモデル属性として保持しているため、引数を渡す必要はありません。全てのエクスポート引数のリストについては、以下のArgumentsセクションをご覧ください。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue