- Sort Score
- Result 10 results
- Languages All
Results 1 - 10 of 16 for caoga (0.02 sec)
-
src/main/resources/fess_indices/fess/en-ie/stopwords.txt
# https://github.com/apache/lucene-solr/blob/master/lucene/analysis/common/src/resources/org/apache/lucene/analysis/ga/stopwords.txt a ach ag agus an aon ar arna as b' ba beirt bhúr caoga ceathair ceathrar chomh chtó chuig chun cois céad cúig cúigear d' daichead dar de deich deichniúr den dhá do don dtí dá dár dó faoi faoin faoina
Registered: Sat Dec 20 09:19:18 UTC 2025 - Last Modified: Thu Jul 19 06:31:02 UTC 2018 - 685 bytes - Viewed (0) -
src/main/resources/fess_indices/_aws/fess.json
"articles": [ "h", "n", "t" ] }, "irish_stop": { "type": "stop",
Registered: Sat Dec 20 09:19:18 UTC 2025 - Last Modified: Sat Jun 14 00:36:40 UTC 2025 - 117.3K bytes - Viewed (0) -
src/main/resources/fess_indices/_cloud/fess.json
"articles": [ "h", "n", "t" ] }, "irish_stop": { "type": "stop",
Registered: Sat Dec 20 09:19:18 UTC 2025 - Last Modified: Sat Feb 27 09:26:16 UTC 2021 - 117.3K bytes - Viewed (0) -
docs/es/docs/benchmarks.md
* Si no usabas FastAPI y utilizabas Starlette directamente (u otra herramienta, como Sanic, Flask, Responder, etc.) tendrías que implementar toda la validación y serialización de datos por ti mismo. Entonces, tu aplicación final aún tendría la misma carga que si hubiera sido construida usando FastAPI. Y en muchos casos, esta validación y serialización...
Registered: Sun Dec 28 07:19:09 UTC 2025 - Last Modified: Tue Dec 16 16:33:45 UTC 2025 - 3.8K bytes - Viewed (0) -
docs/es/llm-prompt.md
* worker: worker (do not translate to "trabajador") * load balancer: load balancer (do not translate to "balanceador de carga") * load balance: load balance (do not translate to "balancear carga") * self hosting: self hosting (do not translate to "auto alojamiento")
Registered: Sun Dec 28 07:19:09 UTC 2025 - Last Modified: Tue Dec 16 16:33:45 UTC 2025 - 5.4K bytes - Viewed (0) -
docs/pt/docs/deployment/docker.md
Como esse componente assumiria a **carga** de solicitações e distribuiria isso entre os workers de uma maneira (esperançosamente) **balanceada**, ele também é comumente chamado de **Balanceador de Carga**. /// tip | Dica O mesmo componente **Proxy de Terminação TLS** usado para HTTPS provavelmente também seria um **Balanceador de Carga**. ///
Registered: Sun Dec 28 07:19:09 UTC 2025 - Last Modified: Wed Nov 12 16:23:57 UTC 2025 - 32.1K bytes - Viewed (0) -
docs/pt/docs/project-generation.md
- 🔑 Autenticação por token JWT. - 📫 Recuperação de senhas baseada em email. - ✅ Testes com [Pytest](https://pytest.org). - 📞 [Traefik](https://traefik.io) como proxy reverso / balanceador de carga. - 🚢 Instruções de _deployment_ usando Docker Compose, incluindo como configurar um proxy frontend com Traefik para gerenciar automaticamente certificados HTTPS.
Registered: Sun Dec 28 07:19:09 UTC 2025 - Last Modified: Wed Dec 17 10:17:03 UTC 2025 - 2.2K bytes - Viewed (0) -
docs/pt/docs/_llm-test.md
* o mecanismo de template * a anotação de tipo * a anotação de tipo * o worker de servidor * o worker do Uvicorn * o Worker do Gunicorn * o processo worker * a classe de worker * a carga de trabalho * a implantação * implantar * o SDK * o kit de desenvolvimento de software * o `APIRouter` * o `requirements.txt` * o Bearer Token * a alteração com quebra de compatibilidade
Registered: Sun Dec 28 07:19:09 UTC 2025 - Last Modified: Wed Dec 17 10:17:03 UTC 2025 - 12.4K bytes - Viewed (0) -
docs/es/docs/advanced/path-operation-advanced-configuration.md
Luego usamos el request directamente, y extraemos el cuerpo como `bytes`. Esto significa que FastAPI ni siquiera intentará parsear la carga útil del request como JSON. Y luego en nuestro código, parseamos ese contenido YAML directamente, y nuevamente estamos usando el mismo modelo Pydantic para validar el contenido YAML: //// tab | Pydantic v2
Registered: Sun Dec 28 07:19:09 UTC 2025 - Last Modified: Wed Dec 17 20:41:43 UTC 2025 - 8.3K bytes - Viewed (0) -
docs/es/docs/deployment/concepts.md
### Memoria por Proceso { #memory-per-process } Ahora, cuando el programa carga cosas en memoria, por ejemplo, un modelo de Machine Learning en una variable, o el contenido de un archivo grande en una variable, todo eso **consume un poco de la memoria (RAM)** del servidor.Registered: Sun Dec 28 07:19:09 UTC 2025 - Last Modified: Tue Dec 16 16:33:45 UTC 2025 - 20.1K bytes - Viewed (0)