Add Hindi हिन्दी and Arabic العربية Docs translations (#6428)
Signed-off-by: Glenn Jocher <glenn.jocher@ultralytics.com> Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
This commit is contained in:
parent
b6baae584c
commit
02bf8003a8
337 changed files with 6584 additions and 777 deletions
|
|
@ -32,7 +32,7 @@ Uma vez que seu modelo esteja treinado e validado, o próximo passo lógico é a
|
|||
- **OpenVINO:** Para otimização em hardware Intel
|
||||
- **CoreML, TensorFlow SavedModel e Mais:** Para uma variedade de necessidades de implantação.
|
||||
|
||||
!!! dica "Dica"
|
||||
!!! Tip "Dica"
|
||||
|
||||
* Exporte para ONNX ou OpenVINO para acelerar até 3x a velocidade em CPU.
|
||||
* Exporte para TensorRT para acelerar até 5x em GPU.
|
||||
|
|
@ -41,7 +41,7 @@ Uma vez que seu modelo esteja treinado e validado, o próximo passo lógico é a
|
|||
|
||||
Execute benchmarks do YOLOv8n em todos os formatos de exportação suportados incluindo ONNX, TensorRT etc. Consulte a seção Argumentos abaixo para ver uma lista completa de argumentos de exportação.
|
||||
|
||||
!!! exemplo ""
|
||||
!!! Example "Exemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -39,7 +39,7 @@ Aqui estão algumas das funcionalidades de destaque:
|
|||
- **Inferência Otimizada:** Modelos exportados são otimizados para tempos de inferência mais rápidos.
|
||||
- **Vídeos Tutoriais:** Guias e tutoriais detalhados para uma experiência de exportação tranquila.
|
||||
|
||||
!!! dica "Dica"
|
||||
!!! Tip "Dica"
|
||||
|
||||
* Exporte para ONNX ou OpenVINO para até 3x aceleração em CPU.
|
||||
* Exporte para TensorRT para até 5x aceleração em GPU.
|
||||
|
|
@ -48,7 +48,7 @@ Aqui estão algumas das funcionalidades de destaque:
|
|||
|
||||
Exporte um modelo YOLOv8n para um formato diferente como ONNX ou TensorRT. Veja a seção de Argumentos abaixo para uma lista completa dos argumentos de exportação.
|
||||
|
||||
!!! exemplo ""
|
||||
!!! Example "Exemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
|
|
@ -50,7 +50,7 @@ O modo predict do YOLOv8 é projetado para ser robusto e versátil, apresentando
|
|||
|
||||
Os modelos Ultralytics YOLO retornam ou uma lista de objetos `Results` em Python, ou um gerador em Python eficiente de memória de objetos `Results` quando `stream=True` é passado para o modelo durante a inferência:
|
||||
|
||||
!!! exemplo "Predict"
|
||||
!!! Example "Predict"
|
||||
|
||||
=== "Retorna uma lista com `stream=False`"
|
||||
```python
|
||||
|
|
@ -92,7 +92,7 @@ Os modelos Ultralytics YOLO retornam ou uma lista de objetos `Results` em Python
|
|||
|
||||
O YOLOv8 pode processar diferentes tipos de fontes de entrada para inferência, conforme mostrado na tabela abaixo. As fontes incluem imagens estáticas, transmissões de vídeo e vários formatos de dados. A tabela também indica se cada fonte pode ser usada no modo de streaming com o argumento `stream=True` ✅. O modo de streaming é benéfico para processar vídeos ou transmissões ao vivo, pois cria um gerador de resultados em vez de carregar todos os quadros na memória.
|
||||
|
||||
!!! dica "Dica"
|
||||
!!! Tip "Dica"
|
||||
|
||||
Use `stream=True` para processar vídeos longos ou grandes conjuntos de dados para gerenciar a memória de forma eficiente. Quando `stream=False`, os resultados de todos os quadros ou pontos de dados são armazenados na memória, o que pode aumentar rapidamente e causar erros de falta de memória para grandes entradas. Em contraste, `stream=True` utiliza um gerador, que mantém apenas os resultados do quadro atual ou ponto de dados na memória, reduzindo significativamente o consumo de memória e prevenindo problemas de falta dela.
|
||||
|
||||
|
|
@ -115,7 +115,7 @@ O YOLOv8 pode processar diferentes tipos de fontes de entrada para inferência,
|
|||
|
||||
Abaixo estão exemplos de código para usar cada tipo de fonte:
|
||||
|
||||
!!! exemplo "Fontes de previsão"
|
||||
!!! Example "Fontes de previsão"
|
||||
|
||||
=== "imagem"
|
||||
Executa a inferência em um arquivo de imagem.
|
||||
|
|
|
|||
|
|
@ -58,7 +58,7 @@ O rastreador padrão é o BoT-SORT.
|
|||
|
||||
Para executar o rastreador em fluxos de vídeo, use um modelo Detect, Segment ou Pose treinado, como YOLOv8n, YOLOv8n-seg e YOLOv8n-pose.
|
||||
|
||||
!!! exemplo ""
|
||||
!!! Example "Exemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -97,7 +97,7 @@ Como pode ser visto no uso acima, o rastreamento está disponível para todos os
|
|||
|
||||
A configuração de rastreamento compartilha propriedades com o modo Predict, como `conf`, `iou`, e `show`. Para mais configurações, consulte a página de [Predict](https://docs.ultralytics.com/modes/predict/) model page.
|
||||
|
||||
!!! exemplo ""
|
||||
!!! Example "Exemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -120,7 +120,7 @@ A configuração de rastreamento compartilha propriedades com o modo Predict, co
|
|||
|
||||
A Ultralytics também permite que você use um arquivo de configuração de rastreador modificado. Para fazer isso, simplesmente faça uma cópia de um arquivo de configuração de rastreador (por exemplo, `custom_tracker.yaml`) de [ultralytics/cfg/trackers](https://github.com/ultralytics/ultralytics/tree/main/ultralytics/cfg/trackers) e modifique quaisquer configurações (exceto `tracker_type`) conforme suas necessidades.
|
||||
|
||||
!!! exemplo ""
|
||||
!!! Example "Exemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -147,7 +147,7 @@ Para uma lista completa de argumentos de rastreamento, consulte a página [ultra
|
|||
|
||||
Aqui está um script em Python usando OpenCV (`cv2`) e YOLOv8 para executar rastreamento de objetos em quadros de vídeo. Este script ainda pressupõe que você já instalou os pacotes necessários (`opencv-python` e `ultralytics`). O argumento `persist=True` indica ao rastreador que a imagem ou quadro atual é o próximo de uma sequência e que espera rastreamentos da imagem anterior na imagem atual.
|
||||
|
||||
!!! exemplo "Loop de fluxo com rastreamento"
|
||||
!!! Example "Loop de fluxo com rastreamento"
|
||||
|
||||
```python
|
||||
import cv2
|
||||
|
|
|
|||
|
|
@ -41,7 +41,7 @@ Os seguintes são alguns recursos notáveis do modo de Treino da YOLOv8:
|
|||
- **Configuração de Hiperparâmetros:** Opção de modificar hiperparâmetros através de arquivos de configuração YAML ou argumentos de CLI.
|
||||
- **Visualização e Monitoramento:** Acompanhamento em tempo real das métricas de treinamento e visualização do processo de aprendizagem para obter melhores insights.
|
||||
|
||||
!!! dica "Dica"
|
||||
!!! Tip "Dica"
|
||||
|
||||
* Conjuntos de dados YOLOv8 como COCO, VOC, ImageNet e muitos outros são baixados automaticamente na primeira utilização, ou seja, `yolo train data=coco.yaml`
|
||||
|
||||
|
|
@ -49,7 +49,7 @@ Os seguintes são alguns recursos notáveis do modo de Treino da YOLOv8:
|
|||
|
||||
Treine o YOLOv8n no conjunto de dados COCO128 por 100 épocas com tamanho de imagem de 640. O dispositivo de treinamento pode ser especificado usando o argumento `device`. Se nenhum argumento for passado, a GPU `device=0` será usado se disponível, caso contrário, `device=cpu` será usado. Veja a seção Argumentos abaixo para uma lista completa dos argumentos de treinamento.
|
||||
|
||||
!!! exemplo "Exemplo de Treinamento em Uma Única GPU e CPU"
|
||||
!!! Example "Exemplo de Treinamento em Uma Única GPU e CPU"
|
||||
|
||||
O dispositivo é determinado automaticamente. Se uma GPU estiver disponível, ela será usada, caso contrário, o treinamento começará na CPU.
|
||||
|
||||
|
|
@ -84,7 +84,7 @@ Treine o YOLOv8n no conjunto de dados COCO128 por 100 épocas com tamanho de ima
|
|||
|
||||
O treinamento com múltiplas GPUs permite uma utilização mais eficiente dos recursos de hardware disponíveis, distribuindo a carga de treinamento entre várias GPUs. Esse recurso está disponível por meio da API do Python e da interface de linha de comando. Para habilitar o treinamento com várias GPUs, especifique os IDs dos dispositivos de GPU que deseja usar.
|
||||
|
||||
!!! exemplo "Exemplo de Treinamento com Multi-GPU"
|
||||
!!! Example "Exemplo de Treinamento com Multi-GPU"
|
||||
|
||||
Para treinar com 2 GPUs, dispositivos CUDA 0 e 1 use os seguintes comandos. Expanda para GPUs adicionais conforme necessário.
|
||||
|
||||
|
|
@ -113,7 +113,7 @@ Com a integração do suporte para os chips Apple M1 e M2 nos modelos YOLO da Ul
|
|||
|
||||
Para habilitar o treinamento nos chips Apple M1 e M2, você deve especificar 'mps' como seu dispositivo ao iniciar o processo de treinamento. Abaixo está um exemplo de como você pode fazer isso em Python e via linha de comando:
|
||||
|
||||
!!! exemplo "Exemplo de Treinamento com MPS"
|
||||
!!! Example "Exemplo de Treinamento com MPS"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
@ -148,7 +148,7 @@ Para usar um logger, selecione-o no menu suspenso no trecho de código acima e e
|
|||
|
||||
Para usar o Comet:
|
||||
|
||||
!!! exemplo ""
|
||||
!!! Example "Exemplo"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -166,7 +166,7 @@ Lembre-se de fazer login na sua conta Comet no site deles e obter sua chave de A
|
|||
|
||||
Para usar o ClearML:
|
||||
|
||||
!!! exemplo ""
|
||||
!!! Example "Exemplo"
|
||||
|
||||
=== "Python"
|
||||
```python
|
||||
|
|
@ -184,7 +184,7 @@ Após executar este script, você precisará fazer login na sua conta ClearML no
|
|||
|
||||
Para usar o TensorBoard em [Google Colab](https://colab.research.google.com/github/ultralytics/ultralytics/blob/main/examples/tutorial.ipynb):
|
||||
|
||||
!!! exemplo ""
|
||||
!!! Example "Exemplo"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
@ -194,7 +194,7 @@ Para usar o TensorBoard em [Google Colab](https://colab.research.google.com/gith
|
|||
|
||||
Para usar o TensorBoard localmente, execute o comando abaixo e veja os resultados em http://localhost:6006/:
|
||||
|
||||
!!! exemplo ""
|
||||
!!! Example "Exemplo"
|
||||
|
||||
=== "CLI"
|
||||
```bash
|
||||
|
|
|
|||
|
|
@ -30,7 +30,7 @@ Estas são as funcionalidades notáveis oferecidas pelo modo Val do YOLOv8:
|
|||
- **API em Python e CLI:** Escolha entre a interface de linha de comando ou API em Python com base na sua preferência de validação.
|
||||
- **Compatibilidade de Dados:** Funciona perfeitamente com conjuntos de dados usados durante a fase de treinamento, bem como conjuntos de dados personalizados.
|
||||
|
||||
!!! tip "Dica"
|
||||
!!! Tip "Dica"
|
||||
|
||||
* Os modelos YOLOv8 lembram automaticamente suas configurações de treinamento, então você pode validar um modelo no mesmo tamanho de imagem e no conjunto de dados original facilmente com apenas `yolo val model=yolov8n.pt` ou `model('yolov8n.pt').val()`
|
||||
|
||||
|
|
@ -38,7 +38,7 @@ Estas são as funcionalidades notáveis oferecidas pelo modo Val do YOLOv8:
|
|||
|
||||
Validar a precisão do modelo YOLOv8n treinado no conjunto de dados COCO128. Nenhum argumento precisa ser passado, pois o `model` retém os dados de treinamento e argumentos como atributos do modelo. Veja a seção de Argumentos abaixo para uma lista completa dos argumentos de exportação.
|
||||
|
||||
!!! example ""
|
||||
!!! Example "Exemplo"
|
||||
|
||||
=== "Python"
|
||||
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue