Search Options

Display Count
Sort
Preferred Language
Advanced Search

Results 31 - 40 of 64 for taon (0.04 seconds)

  1. docs/es/docs/tutorial/body-nested-models.md

    ```
    
    /// info | Información
    
    Nota cómo la clave `images` ahora tiene una lista de objetos de imagen.
    
    ///
    
    ## Modelos anidados profundamente { #deeply-nested-models }
    
    Puedes definir modelos anidados tan profundamente como desees:
    
    {* ../../docs_src/body_nested_models/tutorial007_py310.py hl[7,12,18,21,25] *}
    
    /// info | Información
    
    Created: Sun Apr 05 07:19:11 GMT 2026
    - Last Modified: Thu Mar 19 18:15:55 GMT 2026
    - 7.2K bytes
    - Click Count (0)
  2. docs/pt/docs/tutorial/dependencies/index.md

    * E muitas outras coisas...
    
    Tudo isso, enquanto minimizamos a repetição de código.
    
    ## Primeiros passos { #first-steps }
    
    Vamos ver um exemplo simples. Tão simples que não será muito útil, por enquanto.
    
    Mas dessa forma podemos focar em como o sistema de **Injeção de Dependência** funciona.
    
    ### Criando uma dependência, ou "dependable" { #create-a-dependency-or-dependable }
    
    Created: Sun Apr 05 07:19:11 GMT 2026
    - Last Modified: Thu Mar 19 18:20:43 GMT 2026
    - 10.6K bytes
    - Click Count (0)
  3. docs/pt/docs/features.md

    ### "Plug-ins" ilimitados { #unlimited-plug-ins }
    
    Ou, de outra forma, sem a necessidade deles, importe e use o código que precisar.
    
    Qualquer integração é projetada para ser tão simples de usar (com dependências) que você pode criar um "plug-in" para suas aplicações com 2 linhas de código usando a mesma estrutura e sintaxe para as suas *operações de rota*.
    
    ### Testado { #tested }
    
    Created: Sun Apr 05 07:19:11 GMT 2026
    - Last Modified: Thu Mar 19 18:20:43 GMT 2026
    - 10.1K bytes
    - Click Count (0)
  4. docs/es/docs/_llm-test.md

    * Vuelve a traducir, teniendo la buena traducción en su lugar. El resultado ideal sería que el LLM ya no hiciera cambios a la traducción. Eso significa que el prompt general y tu prompt específico del idioma están tan bien como pueden estar (A veces hará algunos cambios aparentemente aleatorios; la razón es que [los LLMs no son algoritmos deterministas](https://doublespeak.chat/#/handbook#deterministic-output)).
    
    Las pruebas:
    
    Created: Sun Apr 05 07:19:11 GMT 2026
    - Last Modified: Thu Mar 19 18:15:55 GMT 2026
    - 12.2K bytes
    - Click Count (0)
  5. docs/es/docs/features.md

    ### "Plug-ins" ilimitados { #unlimited-plug-ins }
    
    O de otra manera, no hay necesidad de ellos, importa y usa el código que necesitas.
    
    Cualquier integración está diseñada para ser tan simple de usar (con dependencias) que puedes crear un "plug-in" para tu aplicación en 2 líneas de código usando la misma estructura y sintaxis utilizada para tus *path operations*.
    
    ### Probado { #tested }
    
    Created: Sun Apr 05 07:19:11 GMT 2026
    - Last Modified: Thu Mar 19 18:15:55 GMT 2026
    - 10.1K bytes
    - Click Count (0)
  6. docs/pt/docs/advanced/settings.md

    Se você tiver muitas configurações que possivelmente mudam bastante, talvez em diferentes ambientes, pode ser útil colocá-las em um arquivo e então lê-las como se fossem variáveis de ambiente.
    
    Essa prática é tão comum que tem um nome: essas variáveis de ambiente são comumente colocadas em um arquivo `.env`, e o arquivo é chamado de "dotenv".
    
    /// tip | Dica
    
    Created: Sun Apr 05 07:19:11 GMT 2026
    - Last Modified: Thu Mar 19 18:20:43 GMT 2026
    - 11.5K bytes
    - Click Count (0)
  7. docs/pt/docs/help-fastapi.md

    problema sozinho antes de perguntar. E no GitHub eu consigo garantir que sempre vou responder tudo, mesmo que leve algum tempo. Eu pessoalmente não consigo fazer isso com os sistemas de chat. 😅
    
    As conversas nos sistemas de chat também não são tão fáceis de pesquisar quanto no GitHub, então perguntas e respostas podem se perder na conversa. E somente as que estão no GitHub contam para você se tornar um(a) [Especialista em FastAPI](fastapi-people.md#fastapi-experts), então é bem provável que você...
    Created: Sun Apr 05 07:19:11 GMT 2026
    - Last Modified: Thu Mar 19 18:20:43 GMT 2026
    - 13.7K bytes
    - Click Count (0)
  8. docs/en/data/translation_reviewers.yml

      count: 2
      avatarUrl: https://avatars.githubusercontent.com/u/12431528?v=4
      url: https://github.com/dwisulfahnur
    ayr-ton:
      login: ayr-ton
      count: 2
      avatarUrl: https://avatars.githubusercontent.com/u/1090517?u=5cf70a0e0f0dbf084e074e494aa94d7c91a46ba6&v=4
      url: https://github.com/ayr-ton
    Kadermiyanyedi:
      login: Kadermiyanyedi
      count: 2
    Created: Sun Apr 05 07:19:11 GMT 2026
    - Last Modified: Wed Apr 01 07:31:54 GMT 2026
    - 66K bytes
    - Click Count (0)
  9. docs/pt/docs/_llm-test.md

    * Retraduzir, tendo a boa tradução no lugar. O resultado ideal seria que o LLM não fizesse mais mudanças na tradução. Isso significa que o prompt geral e o seu prompt específico do idioma estão tão bons quanto possível (às vezes fará algumas mudanças aparentemente aleatórias, a razão é que [LLMs não são algoritmos determinísticos](https://doublespeak.chat/#/handbook#deterministic-output)).
    
    Os testes:
    
    Created: Sun Apr 05 07:19:11 GMT 2026
    - Last Modified: Thu Mar 19 18:20:43 GMT 2026
    - 12.1K bytes
    - Click Count (0)
  10. docs/es/docs/async.md

    Este es el caso para la mayoría de las aplicaciones web.
    
    Muchos, muchos usuarios, pero tu servidor está esperando 🕙 su conexión no tan buena para enviar sus requests.
    
    Y luego esperar 🕙 nuevamente a que los responses retornen.
    
    Esta "espera" 🕙 se mide en microsegundos, pero aún así, sumándolo todo, es mucha espera al final.
    
    Created: Sun Apr 05 07:19:11 GMT 2026
    - Last Modified: Thu Mar 19 18:15:55 GMT 2026
    - 24.8K bytes
    - Click Count (0)
Back to Top