Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)

Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com>
Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
Glenn Jocher 2023-11-18 21:51:47 +01:00 committed by GitHub
parent b6baae584c
commit 02bf8003a8
No known key found for this signature in database
GPG key ID: 4AEE18F83AFDEB23
337 changed files with 6584 additions and 777 deletions

View file

@ -8,7 +8,7 @@ keywords: コンピュータビジョン, データセット, Ultralytics, YOLO,
Ultralyticsは、検出、インスタンスセグメンテーション、ポーズ推定、分類、マルチオブジェクト追跡などのコンピュータビジョンタスクを容易にするために、様々なデータセットをサポートしています。以下は主要なUltralyticsデータセットのリストであり、それに続いて各コンピュータビジョンタスクの概要と関連するデータセットが記載されています。
!!! note
!!! Note
🚧 当社の多言語ドキュメントは現在作成中であり、改善のため頑張って作業しています。ご理解いただいてありがとうございます! 🙏
@ -104,7 +104,7 @@ Ultralyticsは、検出、インスタンスセグメンテーション、ポー
### データセットを最適化してZipするためのサンプルコード
!!! example "データセットを最適化してZipする"
!!! Example "データセットを最適化してZipする"
=== "Python"

View file

@ -38,7 +38,7 @@ keywords: Ultralytics, YOLOv8, オブジェクト検出, 画像セグメンテ
YOLOv8ドキュメントを探索し、その特徴と能力を理解し、活用するための包括的なリソースを提供します。機械学習の経験者であれ、分野の新入りであれ、このハブはあなたのプロジェクトでYOLOv8のポテンシャルを最大限に引き出すことを目指しています。
!!! note
!!! Note
🚧 多言語ドキュメントは現在作成中であり、改善に努めております。お待ちいただき、ありがとうございます! 🙏

View file

@ -8,7 +8,7 @@ keywords: Ultralytics, ドキュメンテーション, YOLO, SAM, MobileSAM, Fas
Ultralyticsのモデルドキュメンテーションへようこそ[オブジェクト検出](../tasks/detect.md)、[インスタンスセグメンテーション](../tasks/segment.md)、[画像分類](../tasks/classify.md)、[ポーズ推定](../tasks/pose.md)、[マルチオブジェクトトラッキング](../modes/track.md)など、特定のタスクに適した幅広いモデルをサポートしています。Ultralyticsにあなたのモデルアーキテクチャを寄稿したい場合は、[コントリビューティングガイド](../../help/contributing.md)を確認してください。
!!! note
!!! Note
🚧 弊社の多言語ドキュメンテーションは現在建設中で、改善に向けて努力しています。ご理解いただきありがとうございます!🙏
@ -41,7 +41,7 @@ Ultralyticsのモデルドキュメンテーションへようこそ[オブ
## 入門:使用例
!!! example ""
!!! Example "例"
=== "Python"

View file

@ -32,7 +32,7 @@ keywords: Ultralytics, YOLOv8, ベンチマーク, スピードプロファイ
- **OpenVINO:** Intelハードウェアの最適化のために
- **CoreML, TensorFlow SavedModel など:** 多様なデプロイメントニーズに。
!!! tip "ヒント"
!!! Tip "ヒント"
* CPUスピードアップのためにONNXまたはOpenVINOにエクスポートする。
* GPUスピードアップのためにTensorRTにエクスポートする。
@ -41,7 +41,7 @@ keywords: Ultralytics, YOLOv8, ベンチマーク, スピードプロファイ
ONNX、TensorRTなど、すべてのサポートされるエクスポート形式でYOLOv8nベンチマークを実行します。完全なエクスポート引数のリストについては、以下のArgumentsセクションを参照してください。
!!! example ""
!!! Example "例"
=== "Python"

View file

@ -39,7 +39,7 @@ keywords: YOLO, YOLOv8, Ultralytics, モデルエキスポート, ONNX, TensorRT
- **最適化推論:** より高速な推論のために最適化されたエキスポートモデル。
- **チュートリアル動画:** スムーズなエキスポート体験のための詳細なガイドとチュートリアル。
!!! tip "ヒント"
!!! Tip "ヒント"
* ONNXまたはOpenVINOへのエキスポートで最大3倍のCPU速度アップ。
* TensorRTへのエキスポートで最大5倍のGPU速度アップ。
@ -48,7 +48,7 @@ keywords: YOLO, YOLOv8, Ultralytics, モデルエキスポート, ONNX, TensorRT
YOLOv8nモデルをONNXやTensorRTなどの異なるフォーマットにエキスポートします。エキスポート引数のフルリストについては、以下のArgumentsセクションをご覧ください。
!!! example ""
!!! Example "例"
=== "Python"

View file

@ -50,7 +50,7 @@ YOLOv8の予測モードは、頑健で多様性があり、次の特徴を備
UltralyticsのYOLOモデルは、`stream=True`が推論中にモデルに渡されると、Pythonの`Results`オブジェクトのリストまたは`Results`オブジェクトのメモリ効率の良いPythonジェネレータのいずれかを返します
!!! "予測"
!!! Example "予測"
=== "`stream=False`でリストを返す"
```python
@ -92,7 +92,7 @@ UltralyticsのYOLOモデルは、`stream=True`が推論中にモデルに渡さ
YOLOv8は、以下の表に示されるように、異なるタイプの入力ソースを推論に処理できます。ソースには静止画像、動画ストリーム、およびさまざまなデータフォーマットが含まれます。表には、各ソースがストリーミングモードで使用できるかどうかも示されており、引数`stream=True`で✅が表示されています。ストリーミングモードは、動画やライブストリームを処理する場合に有利であり、すべてのフレームをメモリにロードする代わりに結果のジェネレータを作成します。
!!! ヒント "ヒント"
!!! Tip "ヒント"
長い動画や大きなデータセットを効率的にメモリ管理するために`stream=True`を使用します。`stream=False`では、すべてのフレームまたはデータポイントの結果がメモリに格納されますが、大きな入力で迅速にメモリが積み上がり、メモリ不足のエラーを引き起こす可能性があります。対照的に、`stream=True`はジェネレータを利用し、現在のフレームまたはデータポイントの結果のみをメモリに保持し、メモリ消費を大幅に削減し、メモリ不足の問題を防ぎます。
@ -115,7 +115,7 @@ YOLOv8は、以下の表に示されるように、異なるタイプの入力
以下は、それぞれのソースタイプを使用するためのコード例です:
!!! "予測ソース"
!!! Example "予測ソース"
=== "画像"
画像ファイルに推論を実行します。

View file

@ -58,7 +58,7 @@ Ultralytics YOLOは、次のトラッキングアルゴリズムをサポート
ビデオストリームでトラッカーを実行するには、YOLOv8n、YOLOv8n-seg、YOLOv8n-poseなどのトレーニング済みのDetect、Segment、またはPoseモデルを使用します。
!!! 例 ""
!!! Example "例"
=== "Python"
@ -97,7 +97,7 @@ Ultralytics YOLOは、次のトラッキングアルゴリズムをサポート
トラッキング構成は、`conf``iou`、および`show`などのPredictモードと同じプロパティを共有します。さらなる構成については、[Predict](https://docs.ultralytics.com/modes/predict/)モデルページを参照してください。
!!! 例 ""
!!! Example "例"
=== "Python"
@ -120,7 +120,7 @@ Ultralytics YOLOは、次のトラッキングアルゴリズムをサポート
Ultralyticsは、変更されたトラッカー構成ファイルの使用も可能にします。これを行うには、[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)からトラッカー構成ファイル(たとえば`custom_tracker.yaml`)のコピーを作成し、必要に応じて任意の構成(`tracker_type`を除く)を変更します。
!!! 例 ""
!!! Example "例"
=== "Python"
@ -147,7 +147,7 @@ Ultralyticsは、変更されたトラッカー構成ファイルの使用も可
次は、OpenCV (`cv2`)とYOLOv8を使用してビデオフレームでオブジェクトトラッキングを実行するPythonスクリプトです。このスクリプトでは、必要なパッケージ`opencv-python`および`ultralytics`)が既にインストールされていることが前提です。`persist=True`引数は、トラッカーに現在の画像またはフレームがシーケンスの次のものであり、現在の画像に前の画像からのトラックを期待することを伝えます。
!!! "トラッキングを伴うストリーミングforループ"
!!! Example "トラッキングを伴うストリーミングforループ"
```python
import cv2

View file

@ -41,7 +41,7 @@ YOLOv8のトレーニングモードを選択するいくつかの魅力的な
- **ハイパーパラメータの設定:** YAML設定ファイルやCLI引数を通じてハイパーパラメータを変更するオプション。
- **可視化とモニタリング:** トレーニング指標のリアルタイム追跡と学習プロセスの可視化により、より良い洞察を得ます。
!!! tip "ヒント"
!!! Tip "ヒント"
* YOLOv8のデータセット、例えばCOCO、VOC、ImageNetなどは、最初の使用時に自動的にダウンロードされます。例`yolo train data=coco.yaml`
@ -49,7 +49,7 @@ YOLOv8のトレーニングモードを選択するいくつかの魅力的な
COCO128データセットでYOLOv8nを100エポック、画像サイズ640でトレーニングする。トレーニングデバイスは、`device`引数を使って指定できます。引数が渡されない場合、利用可能であればGPU `device=0`が、そうでなければ`device=cpu`が利用されます。全てのトレーニング引数のリストは以下の引数セクションを参照してください。
!!! example "シングルGPUとCPUトレーニング例"
!!! Example "シングルGPUとCPUトレーニング例"
デバイスは自動的に決定されます。GPUが利用可能であればそれが使用され、そうでなければCPUでトレーニングが開始されます。
@ -84,7 +84,7 @@ COCO128データセットでYOLOv8nを100エポック、画像サイズ640でト
マルチGPUトレーニングは、利用可能なハードウェアリソースをより効率的に活用するために、トレーニングの負荷を複数のGPUに分散させることを可能にします。この機能はPython APIとコマンドラインインターフェィスの両方を通じて利用できます。マルチGPUトレーニングを有効にするには、使用したいGPUデバイスIDを指定します。
!!! example "マルチGPUトレーニング例"
!!! Example "マルチGPUトレーニング例"
2つのGPUを使ってトレーニングするには、CUDAデバイス0と1を使い以下のコマンドを使用します。必要に応じて追加のGPUに拡張します。
@ -113,7 +113,7 @@ AppleのM1およびM2チップに対するサポートがUltralyticsのYOLOモ
AppleのM1およびM2チップでのトレーニングを有効にするには、トレーニングプロセスを開始する際に`mps`をデバイスとして指定する必要があります。以下はPythonおよびコマンドラインでこれを行う例です
!!! example "MPSトレーニング例"
!!! Example "MPSトレーニング例"
=== "Python"
@ -148,7 +148,7 @@ YOLOv8モデルをトレーニングする際、モデルのパフォーマン
Cometを使用するには
!!! example ""
!!! Example "例"
=== "Python"
```python
@ -166,7 +166,7 @@ Cometアカウントにサインインし、APIキーを取得してください
ClearMLを使用するには
!!! example ""
!!! Example "例"
=== "Python"
```python
@ -184,7 +184,7 @@ ClearMLを使用するには
[Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb)でTensorBoardを使用するには
!!! example ""
!!! Example "例"
=== "CLI"
```bash
@ -194,7 +194,7 @@ ClearMLを使用するには
TensorBoardをローカルで使用する場合は、http://localhost:6006/ で結果を確認できます。
!!! example ""
!!! Example "例"
=== "CLI"
```bash

View file

@ -30,7 +30,7 @@ YOLOv8のValモードにより提供される注目すべき機能は以下の
- **CLI and Python API** バリデーションにコマンドラインインターフェイスもしくはPython APIのどちらかを選択できます。
- **Data Compatibilityデータ互換性** 訓練段階で使われたデータセットはもちろん、カスタムデータセットともシームレスに動作します。
!!! tip "Tip"
!!! Tip "Tip"
* YOLOv8モデルは訓練設定を自動的に記憶しているので、`yolo val model=yolov8n.pt``model('yolov8n.pt').val()`だけで、元のデータセットと同じ画像サイズで簡単にバリデーション可能です。
@ -38,7 +38,7 @@ YOLOv8のValモードにより提供される注目すべき機能は以下の
COCO128データセット上で訓練済みのYOLOv8nモデルの精度を検証します。`model`はその訓練時の`data`及び引数をモデル属性として保持しているため、引数を渡す必要はありません。全てのエクスポート引数のリストについては、以下のArgumentsセクションをご覧ください。
!!! example ""
!!! Example "例"
=== "Python"

View file

@ -8,7 +8,7 @@ keywords: Ultralyticsインストール, pipインストールUltralytics, Docke
Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方法を提供しています。最新の安定版リリースである`ultralytics` pipパッケージを通じてYOLOv8をインストールするか、最新バージョンを取得するために[Ultralytics GitHubリポジトリ](https://github.com/ultralytics/ultralytics)をクローンします。Dockerは、ローカルインストールを回避し、孤立したコンテナ内でパッケージを実行するために使用できます。
!!! example "インストール"
!!! Example "インストール"
=== "Pipでのインストール推奨"
pipを使用して`ultralytics`パッケージをインストールするか、`pip install -U ultralytics`を実行して既存のインストールをアップデートします。`ultralytics`パッケージの詳細については、Python Package IndexPyPIを参照してください: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/)。
@ -39,7 +39,7 @@ Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方
conda install -c conda-forge ultralytics
```
!!! note
!!! Note
CUDA環境でインストールする場合、パッケージマネージャーが競合を解決できるようにするため、`ultralytics``pytorch``pytorch-cuda`を同じコマンドで一緒にインストールするのがベストプラクティスです。または、CPU専用の`pytorch`パッケージに必要な場合は上書きするように`pytorch-cuda`を最後にインストールします。
```bash
@ -89,7 +89,7 @@ Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方
<strong>Watch:</strong> Ultralytics YOLO Quick Start Guide
</p>
!!! tip "ヒント"
!!! Tip "ヒント"
PyTorchの要件はオペレーティングシステムとCUDAの要件によって異なるため、[https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)に従って最初にPyTorchをインストールすることをお勧めします。
@ -101,7 +101,7 @@ Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方
UltralyticsコマンドラインインターフェースCLIを使用すると、Python環境がなくても単一の行のコマンドを簡単に実行できます。CLIはカスタマイズもPythonコードも必要ありません。単純にすべてのタスクを`yolo`コマンドでターミナルから実行することができます。コマンドラインからYOLOv8を使用する方法について詳しくは、[CLIガイド](/../usage/cli.md)を参照してください。
!!! example
!!! Example
=== "構文"
@ -155,7 +155,7 @@ UltralyticsコマンドラインインターフェースCLIを使用する
yolo cfg
```
!!! warning "警告"
!!! Warning "警告"
引数は`arg=val`ペアとして渡され、`=`記号で分割され、ペア間にスペース` `が必要です。引数のプレフィックスに`--`や引数間にカンマ`,`を使用しないでください。
@ -171,7 +171,7 @@ YOLOv8のPythonインターフェースを使用すると、Pythonプロジェ
たとえば、ユーザーはモデルをロードして、トレーニングし、検証セットでのパフォーマンスを評価し、ONNX形式にエクスポートするまでの一連の処理を数行のコードで行うことができます。YOLOv8をPythonプロジェクトで使用する方法について詳しくは、[Pythonガイド](/../usage/python.md)を参照してください。
!!! example
!!! Example
```python
from ultralytics import YOLO

View file

@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, 画像分類, 事前トレーニングされた
画像分類器の出力は単一のクラスラベルと信頼度スコアです。画像がどのクラスに属しているかのみを知る必要があり、クラスのオブジェクトがどこにあるか、その正確な形状は必要としない場合に画像分類が役立ちます。
!!! tip "ヒント"
!!! Tip "ヒント"
YOLOv8 分類モデルは `-cls` 接尾辞を使用します。例: `yolov8n-cls.pt` これらは [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) で事前にトレーニングされています。
@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, 画像分類, 事前トレーニングされた
画像サイズ64で100エポックにわたってMNIST160データセットにYOLOv8n-clsをトレーニングします。利用可能な引数の完全なリストについては、[設定](/../usage/cfg.md) ページを参照してください。
!!! example ""
!!! Example "例"
=== "Python"
@ -76,7 +76,7 @@ YOLO分類データセットのフォーマットの詳細は [データセッ
MNIST160データセットでトレーニング済みのYOLOv8n-clsモデルの正確性を検証します。引数は必要ありません。`model` はトレーニング時の `data` および引数をモデル属性として保持しています。
!!! example ""
!!! Example "例"
=== "Python"
@ -103,7 +103,7 @@ MNIST160データセットでトレーニング済みのYOLOv8n-clsモデルの
トレーニング済みのYOLOv8n-clsモデルを使用して、画像に対する予測を実行します。
!!! example ""
!!! Example "例"
=== "Python"
@ -130,7 +130,7 @@ MNIST160データセットでトレーニング済みのYOLOv8n-clsモデルの
YOLOv8n-clsモデルをONNX、CoreMLなどの異なる形式にエクスポートします。
!!! example ""
!!! Example "例"
=== "Python"

View file

@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, 物体検出, 事前訓練済みモデル, トレ
<strong>視聴する:</strong> Ultralyticsの事前訓練済みYOLOv8モデルによる物体検出。
</p>
!!! tip "ヒント"
!!! Tip "ヒント"
YOLOv8 Detectモデルは、デフォルトのYOLOv8モデル、つまり`yolov8n.pt`であり、[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)で事前訓練されています。
@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, 物体検出, 事前訓練済みモデル, トレ
YOLOv8nを画像サイズ640でCOCO128データセットに対して100エポックでトレーニングします。使用可能な引数の完全なリストについては、[設定](/../usage/cfg.md)ページをご覧ください。
!!! example ""
!!! Example "例"
=== "Python"
@ -86,7 +86,7 @@ YOLO検出データセットの形式の詳細は、[データセットガイド
トレーニングされたYOLOv8nモデルの精度をCOCO128データセットで検証します。引数は不要で、モデルはトレーニングの`data`と引数をモデル属性として保持しています。
!!! example ""
!!! Example "例"
=== "Python"
@ -115,7 +115,7 @@ YOLO検出データセットの形式の詳細は、[データセットガイド
トレーニングされたYOLOv8nモデルを使用して画像の予測を実行します。
!!! example ""
!!! Example "例"
=== "Python"
@ -142,7 +142,7 @@ YOLO検出データセットの形式の詳細は、[データセットガイド
YOLOv8nモデルをONNX、CoreMLなどの異なるフォーマットにエクスポートします。
!!! example ""
!!! Example "例"
=== "Python"

View file

@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, 検出, セグメンテーション, 分類, ポ
YOLOv8は、複数のコンピュータービジョン**タスク**をサポートするAIフレームワークです。このフレームワークは、[検出](detect.md)、[セグメンテーション](segment.md)、[分類](classify.md)、及び[ポーズ](pose.md)推定を実行するために使用できます。これらのタスクはそれぞれ異なる目的と用途を持っています。
!!! note
!!! Note
🚧 当社の多言語ドキュメントは現在建設中であり、改善のために一生懸命作業を行っています。ご理解いただきありがとうございます!🙏

View file

@ -23,7 +23,7 @@ keywords: Ultralytics, YOLO, YOLOv8, ポーズ推定, キーポイント検出,
<strong>視聴:</strong> Ultralytics YOLOv8によるポーズ推定。
</p>
!!! tip "ヒント"
!!! Tip "ヒント"
YOLOv8 _pose_ モデルは `-pose` サフィックスを使用します。例:`yolov8n-pose.pt`。これらのモデルは [COCOキーポイント](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) データセットでトレーニングされ、多様なポーズ推定タスクに適しています。
@ -51,7 +51,7 @@ YOLOv8事前トレーニング済みポーズモデルはこちらです。Detec
COCO128-poseデータセットでYOLOv8-poseモデルをトレーニングします。
!!! example ""
!!! Example "例"
=== "Python"
@ -87,7 +87,7 @@ YOLOポーズデータセットフォーマットの詳細は、[データセッ
COCO128-poseデータセットでトレーニングされたYOLOv8n-poseモデルの精度を検証します。引数は必要なく、`model`にはトレーニング`data`と引数がモデル属性として保持されます。
!!! example ""
!!! Example "例"
=== "Python"
@ -116,7 +116,7 @@ COCO128-poseデータセットでトレーニングされたYOLOv8n-poseモデ
トレーニング済みのYOLOv8n-poseモデルを使用して画像を予測します。
!!! example ""
!!! Example "例"
=== "Python"
@ -143,7 +143,7 @@ COCO128-poseデータセットでトレーニングされたYOLOv8n-poseモデ
YOLOv8n PoseモデルをONNX、CoreMLなどの異なるフォーマットにエクスポートします。
!!! example ""
!!! Example "例"
=== "Python"

View file

@ -23,7 +23,7 @@ keywords: yolov8, インスタンスセグメンテーション, Ultralytics, CO
<strong>視聴:</strong> Pythonで事前トレーニング済みのUltralytics YOLOv8モデルでセグメンテーションを実行する。
</p>
!!! tip "ヒント"
!!! Tip "ヒント"
YOLOv8セグメントモデルは`-seg`サフィックスを使用し、つまり`yolov8n-seg.pt`などは[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)で事前トレーニングされています。
@ -50,7 +50,7 @@ keywords: yolov8, インスタンスセグメンテーション, Ultralytics, CO
COCO128-segデータセットで、画像サイズ640でYOLOv8n-segを100エポックトレーニングします。利用可能な全ての引数については、[コンフィギュレーション](/../usage/cfg.md)ページを参照してください。
!!! example ""
!!! Example "例"
=== "Python"
@ -86,7 +86,7 @@ YOLOセグメンテーションデータセットのフォーマットの詳細
訓練されたYOLOv8n-segモデルの精度をCOCO128-segデータセットで検証します。引数は必要ありません、なぜなら`model`はモデル属性としてトレーニング`data`と引数を保持しているからです。
!!! example ""
!!! Example "例"
=== "Python"
@ -119,7 +119,7 @@ YOLOセグメンテーションデータセットのフォーマットの詳細
訓練されたYOLOv8n-segモデルを使用して画像の予測を実行します。
!!! example ""
!!! Example "例"
=== "Python"
@ -146,7 +146,7 @@ YOLOセグメンテーションデータセットのフォーマットの詳細
YOLOv8n-segモデルをONNX、CoreMLなどの別の形式にエクスポートします。
!!! example ""
!!! Example "例"
=== "Python"