- Sort Score
- Num 10 results
- Language All
Results 11 - 20 of 29 for Uno (0.01 seconds)
The search processing time has exceeded the limit. The displayed results may be partial.
-
docs/es/docs/advanced/security/oauth2-scopes.md
La especificación de OAuth2 define "scopes" como una lista de strings separados por espacios. El contenido de cada uno de estos strings puede tener cualquier formato, pero no debe contener espacios. Estos scopes representan "permisos". En OpenAPI (por ejemplo, en la documentación de la API), puedes definir "esquemas de seguridad". Cuando uno de estos esquemas de seguridad usa OAuth2, también puedes declarar y usar scopes.
Created: Sun Dec 28 07:19:09 GMT 2025 - Last Modified: Wed Dec 17 10:15:01 GMT 2025 - 14.2K bytes - Click Count (0) -
docs/es/docs/deployment/https.md
TLS (HTTPS) utiliza el puerto específico `443` por defecto. Así que ese es el puerto que necesitaríamos. Como solo un proceso puede estar escuchando en este puerto, el proceso que lo haría sería el **TLS Termination Proxy**. El TLS Termination Proxy tendría acceso a uno o más **certificados TLS** (certificados HTTPS).
Created: Sun Dec 28 07:19:09 GMT 2025 - Last Modified: Tue Dec 16 16:33:45 GMT 2025 - 15.4K bytes - Click Count (0) -
docs/es/docs/benchmarks.md
Pero al revisar benchmarks y comparaciones, debes tener en cuenta lo siguiente.
Created: Sun Dec 28 07:19:09 GMT 2025 - Last Modified: Tue Dec 16 16:33:45 GMT 2025 - 3.8K bytes - Click Count (0) -
docs/es/docs/deployment/server-workers.md
//// La única opción nueva aquí es `--workers` indicando a Uvicorn que inicie 4 worker processes. También puedes ver que muestra el **PID** de cada proceso, `27365` para el proceso padre (este es el **gestor de procesos**) y uno para cada worker process: `27368`, `27369`, `27370`, y `27367`. ## Conceptos de Despliegue { #deployment-concepts }
Created: Sun Dec 28 07:19:09 GMT 2025 - Last Modified: Tue Dec 16 16:33:45 GMT 2025 - 8.5K bytes - Click Count (0) -
docs/es/docs/tutorial/schema-extra-example.md
La forma de este campo específico de OpenAPI `examples` es un `dict` con **múltiples ejemplos** (en lugar de una `list`), cada uno con información adicional que también se añadirá a **OpenAPI**. Esto no va dentro de cada JSON Schema contenido en OpenAPI, esto va afuera, directamente en la *path operation*.
Created: Sun Dec 28 07:19:09 GMT 2025 - Last Modified: Tue Dec 16 16:33:45 GMT 2025 - 10.3K bytes - Click Count (0) -
docs/es/docs/tutorial/bigger-applications.md
│ └── routers │ │ ├── __init__.py │ │ ├── items.py │ │ └── users.py │ └── internal │ ├── __init__.py │ └── admin.py ``` /// tip | Consejo Hay varios archivos `__init__.py`: uno en cada directorio o subdirectorio. Esto es lo que permite importar código de un archivo a otro. Por ejemplo, en `app/main.py` podrías tener una línea como: ``` from app.routers import items ``` ///
Created: Sun Dec 28 07:19:09 GMT 2025 - Last Modified: Tue Dec 16 16:33:45 GMT 2025 - 19.6K bytes - Click Count (0) -
docs/es/docs/async.md
Pero en este caso, si pudieras traer a los 8 ex-cajeros/cocineros/ahora-limpiadores, y cada uno de ellos (más tú) pudiera tomar una zona de la casa para limpiarla, podrías hacer todo el trabajo en **paralelo**, con la ayuda extra, y terminar mucho antes. En este escenario, cada uno de los limpiadores (incluyéndote) sería un procesador, haciendo su parte del trabajo.
Created: Sun Dec 28 07:19:09 GMT 2025 - Last Modified: Wed Dec 17 10:15:01 GMT 2025 - 25.4K bytes - Click Count (0) -
docs/es/docs/environment-variables.md
* `C:\Program Files\Python312\Scripts` * `C:\Program Files\Python312` * `C:\Windows\System32` //// Cuando escribes un **comando** en la terminal, el sistema operativo **busca** el programa en **cada uno de esos directorios** listados en la variable de entorno `PATH`. Por ejemplo, cuando escribes `python` en la terminal, el sistema operativo busca un programa llamado `python` en el **primer directorio** de esa lista.
Created: Sun Dec 28 07:19:09 GMT 2025 - Last Modified: Tue Dec 16 16:33:45 GMT 2025 - 8.5K bytes - Click Count (0) -
docs/es/docs/advanced/events.md
Imaginemos que tienes algunos **modelos de machine learning** que quieres usar para manejar requests. 🤖 Los mismos modelos son compartidos entre requests, por lo que no es un modelo por request, o uno por usuario o algo similar. Imaginemos que cargar el modelo puede **tomar bastante tiempo**, porque tiene que leer muchos **datos del disco**. Entonces no quieres hacerlo para cada request.
Created: Sun Dec 28 07:19:09 GMT 2025 - Last Modified: Wed Dec 17 20:41:43 GMT 2025 - 8.5K bytes - Click Count (0) -
docs/es/docs/deployment/concepts.md
Por ejemplo, si tu código carga un modelo de Machine Learning con **1 GB de tamaño**, cuando ejecutas un proceso con tu API, consumirá al menos 1 GB de RAM. Y si inicias **4 procesos** (4 workers), cada uno consumirá 1 GB de RAM. Así que, en total, tu API consumirá **4 GB de RAM**. Y si tu servidor remoto o máquina virtual solo tiene 3 GB de RAM, intentar cargar más de 4 GB de RAM causará problemas. 🚨
Created: Sun Dec 28 07:19:09 GMT 2025 - Last Modified: Tue Dec 16 16:33:45 GMT 2025 - 20.1K bytes - Click Count (0)