Search Options

Results per page
Sort
Preferred Languages
Advance

Results 1 - 10 of 15 for tao (0.03 sec)

  1. docs/pt/docs/tutorial/path-params-numeric-validations.md

    ///
    
    ## Ordene os parâmetros de acordo com sua necessidade { #order-the-parameters-as-you-need }
    
    /// tip | Dica
    
    Isso provavelmente não é tão importante ou necessário se você usar `Annotated`.
    
    ///
    
    Vamos supor que você queira declarar o parâmetro de consulta `q` como uma `str` obrigatória.
    
    Registered: Sun Dec 28 07:19:09 UTC 2025
    - Last Modified: Wed Dec 17 20:41:43 UTC 2025
    - 6.7K bytes
    - Viewed (0)
  2. docs/pt/docs/tutorial/security/get-current-user.md

    {* ../../docs_src/security/tutorial001_an_py39.py hl[12] *}
    
    Mas isso ainda não é tão útil.
    
    Vamos fazer com que ele nos forneça o usuário atual.
    
    ## Criar um modelo de usuário { #create-a-user-model }
    
    Primeiro, vamos criar um modelo de usuário com Pydantic.
    
    Registered: Sun Dec 28 07:19:09 UTC 2025
    - Last Modified: Wed Nov 12 16:23:57 UTC 2025
    - 4.6K bytes
    - Viewed (0)
  3. docs/pt/docs/alternatives.md

    /// note | Detalhes Técnicos
    
    Ele utilizava <a href="https://github.com/MagicStack/uvloop" class="external-link" target="_blank">`uvloop`</a> em vez do loop `asyncio` padrão do Python. É isso que o deixava tão rápido.
    
    Ele claramente inspirou Uvicorn e Starlette, que atualmente são mais rápidos que o Sanic em benchmarks abertos.
    
    ///
    
    /// check | **FastAPI** inspirado para
    
    Registered: Sun Dec 28 07:19:09 UTC 2025
    - Last Modified: Wed Nov 12 16:23:57 UTC 2025
    - 25.9K bytes
    - Viewed (0)
  4. docs/pt/docs/async.md

    Esse é o caso da maioria das aplicações web.
    
    Muitos, muitos usuários, mas seu servidor está esperando 🕙 pela sua conexão não tão boa enviar suas requisições.
    
    E então esperando 🕙 novamente as respostas voltarem.
    
    Essa "espera" 🕙 é medida em microssegundos, mas ainda assim, somando tudo, é um monte de espera no final.
    
    Registered: Sun Dec 28 07:19:09 UTC 2025
    - Last Modified: Wed Nov 12 16:23:57 UTC 2025
    - 25.8K bytes
    - Viewed (0)
  5. docs/pt/docs/features.md

    ### "Plug-ins" ilimitados { #unlimited-plug-ins }
    
    Ou, de outra forma, sem a necessidade deles, importe e use o código que precisar.
    
    Qualquer integração é projetada para ser tão simples de usar (com dependências) que você pode criar um "plug-in" para suas aplicações com 2 linhas de código usando a mesma estrutura e sintaxe para as suas *operações de caminho*.
    
    ### Testado { #tested }
    
    Registered: Sun Dec 28 07:19:09 UTC 2025
    - Last Modified: Wed Nov 12 16:23:57 UTC 2025
    - 10.6K bytes
    - Viewed (0)
  6. docs/pt/docs/tutorial/dependencies/index.md

    * E muitas outras coisas...
    
    Tudo isso, enquanto minimizamos a repetição de código.
    
    ## Primeiros passos { #first-steps }
    
    Vamos ver um exemplo simples. Tão simples que não será muito útil, por enquanto.
    
    Mas dessa forma podemos focar em como o sistema de **Injeção de Dependência** funciona.
    
    ### Criando uma dependência, ou "injetável" { #create-a-dependency-or-dependable }
    
    Registered: Sun Dec 28 07:19:09 UTC 2025
    - Last Modified: Wed Nov 12 16:23:57 UTC 2025
    - 10.7K bytes
    - Viewed (0)
  7. docs/pt/docs/advanced/settings.md

    Se você tiver muitas configurações que possivelmente mudam bastante, talvez em diferentes ambientes, pode ser útil colocá-las em um arquivo e então lê-las como se fossem variáveis de ambiente.
    
    Essa prática é tão comum que tem um nome: essas variáveis de ambiente são comumente colocadas em um arquivo `.env`, e o arquivo é chamado de "dotenv".
    
    /// tip | Dica
    
    Registered: Sun Dec 28 07:19:09 UTC 2025
    - Last Modified: Wed Dec 17 20:41:43 UTC 2025
    - 13K bytes
    - Viewed (0)
  8. docs/pt/docs/_llm-test.md

    * Retraduzir, tendo a boa tradução no lugar. O resultado ideal seria que o LLM não fizesse mais mudanças na tradução. Isso significa que o prompt geral e o seu prompt específico do idioma estão tão bons quanto possível (às vezes fará algumas mudanças aparentemente aleatórias, a razão é que <a href="https://doublespeak.chat/#/handbook#deterministic-output" class="external-link" target="_blank">LLMs não são algoritmos determinísticos</a>).
    Registered: Sun Dec 28 07:19:09 UTC 2025
    - Last Modified: Wed Dec 17 10:17:03 UTC 2025
    - 12.4K bytes
    - Viewed (0)
  9. docs/pt/docs/deployment/https.md

        * Como dito anteriormente, apenas um processo pode estar ligado a uma porta e IP específicos.
        * Essa é uma dos motivos que fazem utilizar o mesmo Proxy de Terminação TLS para gerenciar a renovação de certificados ser tão útil.
    Registered: Sun Dec 28 07:19:09 UTC 2025
    - Last Modified: Wed Nov 12 16:23:57 UTC 2025
    - 14.8K bytes
    - Viewed (0)
  10. docs/pt/docs/help-fastapi.md

    sozinho(a) antes de perguntar. E no GitHub eu consigo garantir que sempre vou responder tudo, mesmo que leve algum tempo. Eu pessoalmente não consigo fazer isso com os sistemas de chat. 😅
    
    As conversas nos sistemas de chat também não são tão fáceis de pesquisar quanto no GitHub, então perguntas e respostas podem se perder na conversa. E somente as que estão no GitHub contam para você se tornar um(a) [Especialista em FastAPI](fastapi-people.md#fastapi-experts){.internal-link target=_blank},...
    Registered: Sun Dec 28 07:19:09 UTC 2025
    - Last Modified: Wed Nov 12 16:23:57 UTC 2025
    - 15.1K bytes
    - Viewed (0)
Back to top