Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)
Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
parent
b6baae584c
commit
02bf8003a8
337 changed files with 6584 additions and 777 deletions
|
|
@ -8,7 +8,7 @@ keywords: コンピュータビジョン, データセット, Ultralytics, YOLO,
|
|||
|
||||
Ultralyticsは、検出、インスタンスセグメンテーション、ポーズ推定、分類、マルチオブジェクト追跡などのコンピュータビジョンタスクを容易にするために、様々なデータセットをサポートしています。以下は主要なUltralyticsデータセットのリストであり、それに続いて各コンピュータビジョンタスクの概要と関連するデータセットが記載されています。
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 当社の多言語ドキュメントは現在作成中であり、改善のため頑張って作業しています。ご理解いただいてありがとうございます! 🙏
|
||||
|
||||
|
|
@ -104,7 +104,7 @@ Ultralyticsは、検出、インスタンスセグメンテーション、ポー
|
|||
|
||||
### データセットを最適化してZipするためのサンプルコード
|
||||
|
||||
!!! example "データセットを最適化してZipする"
|
||||
!!! Example "データセットを最適化してZipする"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -38,7 +38,7 @@ keywords: Ultralytics, YOLOv8, オブジェクト検出, 画像セグメンテ
|
|||
|
||||
YOLOv8ドキュメントを探索し、その特徴と能力を理解し、活用するための包括的なリソースを提供します。機械学習の経験者であれ、分野の新入りであれ、このハブはあなたのプロジェクトでYOLOv8のポテンシャルを最大限に引き出すことを目指しています。
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 多言語ドキュメントは現在作成中であり、改善に努めております。お待ちいただき、ありがとうございます! 🙏
|
||||
|
||||
|
|
|
|||
|
|
@ -8,7 +8,7 @@ keywords: Ultralytics, ドキュメンテーション, YOLO, SAM, MobileSAM, Fas
|
|||
|
||||
Ultralyticsのモデルドキュメンテーションへようこそ、[インスタンスセグメンテーション](../tasks/segment.md)、[画像分類](../tasks/classify.md)、[ポーズ推定](../tasks/pose.md)、[マルチオブジェクトトラッキング](../modes/track.md)など、特定のタスクに適した幅広いモデルをサポートしています。Ultralyticsにあなたのモデルアーキテクチャを寄稿したい場合は、[コントリビューティングガイド](../../help/contributing.md)を確認してください。
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 弊社の多言語ドキュメンテーションは現在建設中で、改善に向けて努力しています。ご理解いただきありがとうございます!🙏
|
||||
|
||||
|
|
@ -41,7 +41,7 @@ Ultralyticsのモデルドキュメンテーションへようこそモデルページを参照してください。
|
||||
|
||||
!!! 例 ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -120,7 +120,7 @@ Ultralytics YOLOは、次のトラッキングアルゴリズムをサポート
|
|||
|
||||
Ultralyticsは、変更されたトラッカー構成ファイルの使用も可能にします。これを行うには、[ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers)からトラッカー構成ファイル(たとえば`custom_tracker.yaml`)のコピーを作成し、必要に応じて任意の構成(`tracker_type`を除く)を変更します。
|
||||
|
||||
!!! 例 ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -147,7 +147,7 @@ Ultralyticsは、変更されたトラッカー構成ファイルの使用も可
|
|||
|
||||
次は、OpenCV (`cv2`)とYOLOv8を使用してビデオフレームでオブジェクトトラッキングを実行するPythonスクリプトです。このスクリプトでは、必要なパッケージ(`opencv-python`および`ultralytics`)が既にインストールされていることが前提です。`persist=True`引数は、トラッカーに現在の画像またはフレームがシーケンスの次のものであり、現在の画像に前の画像からのトラックを期待することを伝えます。
|
||||
|
||||
!!! 例 "トラッキングを伴うストリーミングforループ"
|
||||
!!! Example "トラッキングを伴うストリーミングforループ"
|
||||
|
||||
```python
|
||||
import cv2
|
||||
|
|
|
|||
|
|
@ -41,7 +41,7 @@ YOLOv8のトレーニングモードを選択するいくつかの魅力的な
|
|||
- **ハイパーパラメータの設定:** YAML設定ファイルやCLI引数を通じてハイパーパラメータを変更するオプション。
|
||||
- **可視化とモニタリング:** トレーニング指標のリアルタイム追跡と学習プロセスの可視化により、より良い洞察を得ます。
|
||||
|
||||
!!! tip "ヒント"
|
||||
!!! Tip "ヒント"
|
||||
|
||||
* YOLOv8のデータセット、例えばCOCO、VOC、ImageNetなどは、最初の使用時に自動的にダウンロードされます。例:`yolo train data=coco.yaml`
|
||||
|
||||
|
|
@ -49,7 +49,7 @@ YOLOv8のトレーニングモードを選択するいくつかの魅力的な
|
|||
|
||||
COCO128データセットでYOLOv8nを100エポック、画像サイズ640でトレーニングする。トレーニングデバイスは、`device`引数を使って指定できます。引数が渡されない場合、利用可能であればGPU `device=0`が、そうでなければ`device=cpu`が利用されます。全てのトレーニング引数のリストは以下の引数セクションを参照してください。
|
||||
|
||||
!!! example "シングルGPUとCPUトレーニング例"
|
||||
!!! Example "シングルGPUとCPUトレーニング例"
|
||||
|
||||
デバイスは自動的に決定されます。GPUが利用可能であればそれが使用され、そうでなければCPUでトレーニングが開始されます。
|
||||
|
||||
|
|
@ -84,7 +84,7 @@ COCO128データセットでYOLOv8nを100エポック、画像サイズ640でト
|
|||
|
||||
マルチGPUトレーニングは、利用可能なハードウェアリソースをより効率的に活用するために、トレーニングの負荷を複数のGPUに分散させることを可能にします。この機能はPython APIとコマンドラインインターフェィスの両方を通じて利用できます。マルチGPUトレーニングを有効にするには、使用したいGPUデバイスIDを指定します。
|
||||
|
||||
!!! example "マルチGPUトレーニング例"
|
||||
!!! Example "マルチGPUトレーニング例"
|
||||
|
||||
2つのGPUを使ってトレーニングするには、CUDAデバイス0と1を使い以下のコマンドを使用します。必要に応じて追加のGPUに拡張します。
|
||||
|
||||
|
|
@ -113,7 +113,7 @@ AppleのM1およびM2チップに対するサポートがUltralyticsのYOLOモ
|
|||
|
||||
AppleのM1およびM2チップでのトレーニングを有効にするには、トレーニングプロセスを開始する際に`mps`をデバイスとして指定する必要があります。以下はPythonおよびコマンドラインでこれを行う例です:
|
||||
|
||||
!!! example "MPSトレーニング例"
|
||||
!!! Example "MPSトレーニング例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -148,7 +148,7 @@ YOLOv8モデルをトレーニングする際、モデルのパフォーマン
|
|||
|
||||
Cometを使用するには:
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -166,7 +166,7 @@ Cometアカウントにサインインし、APIキーを取得してください
|
|||
|
||||
ClearMLを使用するには:
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -184,7 +184,7 @@ ClearMLを使用するには:
|
|||
|
||||
[Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb)でTensorBoardを使用するには:
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
@ -194,7 +194,7 @@ ClearMLを使用するには:
|
|||
|
||||
TensorBoardをローカルで使用する場合は、http://localhost:6006/ で結果を確認できます。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
|
|||
|
|
@ -30,7 +30,7 @@ YOLOv8のValモードにより提供される注目すべき機能は以下の
|
|||
- **CLI and Python API:** バリデーションにコマンドラインインターフェイスもしくはPython APIのどちらかを選択できます。
|
||||
- **Data Compatibility(データ互換性):** 訓練段階で使われたデータセットはもちろん、カスタムデータセットともシームレスに動作します。
|
||||
|
||||
!!! tip "Tip"
|
||||
!!! Tip "Tip"
|
||||
|
||||
* YOLOv8モデルは訓練設定を自動的に記憶しているので、`yolo val model=yolov8n.pt`や`model('yolov8n.pt').val()`だけで、元のデータセットと同じ画像サイズで簡単にバリデーション可能です。
|
||||
|
||||
|
|
@ -38,7 +38,7 @@ YOLOv8のValモードにより提供される注目すべき機能は以下の
|
|||
|
||||
COCO128データセット上で訓練済みのYOLOv8nモデルの精度を検証します。`model`はその訓練時の`data`及び引数をモデル属性として保持しているため、引数を渡す必要はありません。全てのエクスポート引数のリストについては、以下のArgumentsセクションをご覧ください。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -8,7 +8,7 @@ keywords: Ultralyticsインストール, pipインストールUltralytics, Docke
|
|||
|
||||
Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方法を提供しています。最新の安定版リリースである`ultralytics` pipパッケージを通じてYOLOv8をインストールするか、最新バージョンを取得するために[Ultralytics GitHubリポジトリ](https://github.com/ultralytics/ultralytics)をクローンします。Dockerは、ローカルインストールを回避し、孤立したコンテナ内でパッケージを実行するために使用できます。
|
||||
|
||||
!!! example "インストール"
|
||||
!!! Example "インストール"
|
||||
|
||||
=== "Pipでのインストール(推奨)"
|
||||
pipを使用して`ultralytics`パッケージをインストールするか、`pip install -U ultralytics`を実行して既存のインストールをアップデートします。`ultralytics`パッケージの詳細については、Python Package Index(PyPI)を参照してください: [https://pypi.org/project/ultralytics/](https://pypi.org/project/ultralytics/)。
|
||||
|
|
@ -39,7 +39,7 @@ Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方
|
|||
conda install -c conda-forge ultralytics
|
||||
```
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
CUDA環境でインストールする場合、パッケージマネージャーが競合を解決できるようにするため、`ultralytics`、`pytorch`、`pytorch-cuda`を同じコマンドで一緒にインストールするのがベストプラクティスです。または、CPU専用の`pytorch`パッケージに必要な場合は上書きするように`pytorch-cuda`を最後にインストールします。
|
||||
```bash
|
||||
|
|
@ -89,7 +89,7 @@ Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方
|
|||
<strong>Watch:</strong> Ultralytics YOLO Quick Start Guide
|
||||
</p>
|
||||
|
||||
!!! tip "ヒント"
|
||||
!!! Tip "ヒント"
|
||||
|
||||
PyTorchの要件はオペレーティングシステムとCUDAの要件によって異なるため、[https://pytorch.org/get-started/locally](https://pytorch.org/get-started/locally)に従って最初にPyTorchをインストールすることをお勧めします。
|
||||
|
||||
|
|
@ -101,7 +101,7 @@ Ultralyticsはpip、conda、Dockerを含むさまざまなインストール方
|
|||
|
||||
Ultralyticsコマンドラインインターフェース(CLI)を使用すると、Python環境がなくても単一の行のコマンドを簡単に実行できます。CLIはカスタマイズもPythonコードも必要ありません。単純にすべてのタスクを`yolo`コマンドでターミナルから実行することができます。コマンドラインからYOLOv8を使用する方法について詳しくは、[CLIガイド](/../usage/cli.md)を参照してください。
|
||||
|
||||
!!! example
|
||||
!!! Example
|
||||
|
||||
=== "構文"
|
||||
|
||||
|
|
@ -155,7 +155,7 @@ Ultralyticsコマンドラインインターフェース(CLI)を使用する
|
|||
yolo cfg
|
||||
```
|
||||
|
||||
!!! warning "警告"
|
||||
!!! Warning "警告"
|
||||
|
||||
引数は`arg=val`ペアとして渡され、`=`記号で分割され、ペア間にスペース` `が必要です。引数のプレフィックスに`--`や引数間にカンマ`,`を使用しないでください。
|
||||
|
||||
|
|
@ -171,7 +171,7 @@ YOLOv8のPythonインターフェースを使用すると、Pythonプロジェ
|
|||
|
||||
たとえば、ユーザーはモデルをロードして、トレーニングし、検証セットでのパフォーマンスを評価し、ONNX形式にエクスポートするまでの一連の処理を数行のコードで行うことができます。YOLOv8をPythonプロジェクトで使用する方法について詳しくは、[Pythonガイド](/../usage/python.md)を参照してください。
|
||||
|
||||
!!! example
|
||||
!!! Example
|
||||
|
||||
```python
|
||||
from ultralytics import YOLO
|
||||
|
|
|
|||
|
|
@ -12,7 +12,7 @@ keywords: Ultralytics, YOLOv8, 画像分類, 事前トレーニングされた
|
|||
|
||||
画像分類器の出力は単一のクラスラベルと信頼度スコアです。画像がどのクラスに属しているかのみを知る必要があり、クラスのオブジェクトがどこにあるか、その正確な形状は必要としない場合に画像分類が役立ちます。
|
||||
|
||||
!!! tip "ヒント"
|
||||
!!! Tip "ヒント"
|
||||
|
||||
YOLOv8 分類モデルは `-cls` 接尾辞を使用します。例: `yolov8n-cls.pt` これらは [ImageNet](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/ImageNet.yaml) で事前にトレーニングされています。
|
||||
|
||||
|
|
@ -39,7 +39,7 @@ keywords: Ultralytics, YOLOv8, 画像分類, 事前トレーニングされた
|
|||
|
||||
画像サイズ64で100エポックにわたってMNIST160データセットにYOLOv8n-clsをトレーニングします。利用可能な引数の完全なリストについては、[設定](/../usage/cfg.md) ページを参照してください。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -76,7 +76,7 @@ YOLO分類データセットのフォーマットの詳細は [データセッ
|
|||
|
||||
MNIST160データセットでトレーニング済みのYOLOv8n-clsモデルの正確性を検証します。引数は必要ありません。`model` はトレーニング時の `data` および引数をモデル属性として保持しています。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -103,7 +103,7 @@ MNIST160データセットでトレーニング済みのYOLOv8n-clsモデルの
|
|||
|
||||
トレーニング済みのYOLOv8n-clsモデルを使用して、画像に対する予測を実行します。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -130,7 +130,7 @@ MNIST160データセットでトレーニング済みのYOLOv8n-clsモデルの
|
|||
|
||||
YOLOv8n-clsモデルをONNX、CoreMLなどの異なる形式にエクスポートします。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ keywords: YOLOv8, Ultralytics, 物体検出, 事前訓練済みモデル, トレ
|
|||
<strong>視聴する:</strong> Ultralyticsの事前訓練済みYOLOv8モデルによる物体検出。
|
||||
</p>
|
||||
|
||||
!!! tip "ヒント"
|
||||
!!! Tip "ヒント"
|
||||
|
||||
YOLOv8 Detectモデルは、デフォルトのYOLOv8モデル、つまり`yolov8n.pt`であり、[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)で事前訓練されています。
|
||||
|
||||
|
|
@ -50,7 +50,7 @@ keywords: YOLOv8, Ultralytics, 物体検出, 事前訓練済みモデル, トレ
|
|||
|
||||
YOLOv8nを画像サイズ640でCOCO128データセットに対して100エポックでトレーニングします。使用可能な引数の完全なリストについては、[設定](/../usage/cfg.md)ページをご覧ください。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -86,7 +86,7 @@ YOLO検出データセットの形式の詳細は、[データセットガイド
|
|||
|
||||
トレーニングされたYOLOv8nモデルの精度をCOCO128データセットで検証します。引数は不要で、モデルはトレーニングの`data`と引数をモデル属性として保持しています。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -115,7 +115,7 @@ YOLO検出データセットの形式の詳細は、[データセットガイド
|
|||
|
||||
トレーニングされたYOLOv8nモデルを使用して画像の予測を実行します。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -142,7 +142,7 @@ YOLO検出データセットの形式の詳細は、[データセットガイド
|
|||
|
||||
YOLOv8nモデルをONNX、CoreMLなどの異なるフォーマットにエクスポートします。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -11,7 +11,7 @@ keywords: Ultralytics, YOLOv8, 検出, セグメンテーション, 分類, ポ
|
|||
|
||||
YOLOv8は、複数のコンピュータービジョン**タスク**をサポートするAIフレームワークです。このフレームワークは、[検出](detect.md)、[セグメンテーション](segment.md)、[分類](classify.md)、及び[ポーズ](pose.md)推定を実行するために使用できます。これらのタスクはそれぞれ異なる目的と用途を持っています。
|
||||
|
||||
!!! note
|
||||
!!! Note
|
||||
|
||||
🚧 当社の多言語ドキュメントは現在建設中であり、改善のために一生懸命作業を行っています。ご理解いただきありがとうございます!🙏
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ keywords: Ultralytics, YOLO, YOLOv8, ポーズ推定, キーポイント検出,
|
|||
<strong>視聴:</strong> Ultralytics YOLOv8によるポーズ推定。
|
||||
</p>
|
||||
|
||||
!!! tip "ヒント"
|
||||
!!! Tip "ヒント"
|
||||
|
||||
YOLOv8 _pose_ モデルは `-pose` サフィックスを使用します。例:`yolov8n-pose.pt`。これらのモデルは [COCOキーポイント](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco-pose.yaml) データセットでトレーニングされ、多様なポーズ推定タスクに適しています。
|
||||
|
||||
|
|
@ -51,7 +51,7 @@ YOLOv8事前トレーニング済みポーズモデルはこちらです。Detec
|
|||
|
||||
COCO128-poseデータセットでYOLOv8-poseモデルをトレーニングします。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -87,7 +87,7 @@ YOLOポーズデータセットフォーマットの詳細は、[データセッ
|
|||
|
||||
COCO128-poseデータセットでトレーニングされたYOLOv8n-poseモデルの精度を検証します。引数は必要なく、`model`にはトレーニング`data`と引数がモデル属性として保持されます。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -116,7 +116,7 @@ COCO128-poseデータセットでトレーニングされたYOLOv8n-poseモデ
|
|||
|
||||
トレーニング済みのYOLOv8n-poseモデルを使用して画像を予測します。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -143,7 +143,7 @@ COCO128-poseデータセットでトレーニングされたYOLOv8n-poseモデ
|
|||
|
||||
YOLOv8n PoseモデルをONNX、CoreMLなどの異なるフォーマットにエクスポートします。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -23,7 +23,7 @@ keywords: yolov8, インスタンスセグメンテーション, Ultralytics, CO
|
|||
<strong>視聴:</strong> Pythonで事前トレーニング済みのUltralytics YOLOv8モデルでセグメンテーションを実行する。
|
||||
</p>
|
||||
|
||||
!!! tip "ヒント"
|
||||
!!! Tip "ヒント"
|
||||
|
||||
YOLOv8セグメントモデルは`-seg`サフィックスを使用し、つまり`yolov8n-seg.pt`などは[COCO](https://github.com/ultralytics/ultralytics/blob/main/ultralytics/cfg/datasets/coco.yaml)で事前トレーニングされています。
|
||||
|
||||
|
|
@ -50,7 +50,7 @@ keywords: yolov8, インスタンスセグメンテーション, Ultralytics, CO
|
|||
|
||||
COCO128-segデータセットで、画像サイズ640でYOLOv8n-segを100エポックトレーニングします。利用可能な全ての引数については、[コンフィギュレーション](/../usage/cfg.md)ページを参照してください。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -86,7 +86,7 @@ YOLOセグメンテーションデータセットのフォーマットの詳細
|
|||
|
||||
訓練されたYOLOv8n-segモデルの精度をCOCO128-segデータセットで検証します。引数は必要ありません、なぜなら`model`はモデル属性としてトレーニング`data`と引数を保持しているからです。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -119,7 +119,7 @@ YOLOセグメンテーションデータセットのフォーマットの詳細
|
|||
|
||||
訓練されたYOLOv8n-segモデルを使用して画像の予測を実行します。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -146,7 +146,7 @@ YOLOセグメンテーションデータセットのフォーマットの詳細
|
|||
|
||||
YOLOv8n-segモデルをONNX、CoreMLなどの別の形式にエクスポートします。
|
||||
|
||||
!!! example ""
|
||||
!!! Example "例"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue