- Sort Score
- Num 10 results
- Language All
Results 31 - 40 of 93 for LLM (0.06 seconds)
The search processing time has exceeded the limit. The displayed results may be partial.
-
src/main/java/org/codelibs/fess/helper/SystemHelper.java
} private static final String[] LLM_LOG_PACKAGES = { "org.codelibs.fess.llm", "org.codelibs.fess.chat", "org.codelibs.fess.api.chat", "org.codelibs.fess.app.web.chat" }; /** * Sets the log level for LLM-related packages. * * @param level the log level to set */ public void setLlmLogLevel(final String level) {Created: Tue Mar 31 13:07:34 GMT 2026 - Last Modified: Sat Mar 28 06:59:19 GMT 2026 - 43.2K bytes - Click Count (0) -
docs/en/docs/advanced/stream-data.md
/// info Added in FastAPI 0.134.0. /// ## Use Cases { #use-cases } You could use this if you want to stream pure strings, for example directly from the output of an **AI LLM** service. You could also use it to stream **large binary files**, where you stream each chunk of data as you read it, without having to read it all in memory at once.Created: Sun Apr 05 07:19:11 GMT 2026 - Last Modified: Thu Mar 05 18:13:19 GMT 2026 - 5.4K bytes - Click Count (0) -
docs/zh/docs/advanced/stream-data.md
如果你要流式传输可以结构化为 JSON 的数据,你应该[流式传输 JSON Lines](../tutorial/stream-json-lines.md)。 但如果你想流式传输纯二进制数据或字符串,可以按下面的方法操作。 /// info | 信息 自 FastAPI 0.134.0 起新增。 /// ## 使用场景 { #use-cases } 如果你想流式传输纯字符串,例如直接来自某个 AI LLM 服务的输出,可以使用它。 你也可以用它来流式传输大型二进制文件,在读取的同时按块发送,无需一次性把所有内容读入内存。 你还可以用这种方式流式传输视频或音频,甚至可以在处理的同时生成并发送。 ## 使用 `yield` 的 `StreamingResponse` { #a-streamingresponse-with-yield }Created: Sun Apr 05 07:19:11 GMT 2026 - Last Modified: Fri Mar 20 14:29:48 GMT 2026 - 5.2K bytes - Click Count (0) -
docs/zh-hant/docs/tutorial/stream-json-lines.md
重點在於你的應用能夠逐行產生資料,同時用戶端在消耗前一行的資料。 /// /// note | 技術細節 由於每個 JSON 物件會以換行分隔,它們的內容中不能包含實際的換行字元,但可以包含跳脫後的換行(`\n`),這是 JSON 標準的一部分。 不過通常你不需要為此煩惱,這些都會自動處理,繼續往下看吧。🤓 /// ## 使用情境 { #use-cases } 你可以用這種方式從 **AI LLM** 服務、**日誌**或**遙測**串流資料,或任何能以 **JSON** 項目結構化的其他型態資料。 /// tip 如果你想串流二進位資料,例如影像或音訊,請參考進階指南:[串流資料](../advanced/stream-data.md)。 /// ## 使用 FastAPI 串流 JSON Lines { #stream-json-lines-with-fastapi }Created: Sun Apr 05 07:19:11 GMT 2026 - Last Modified: Fri Mar 20 14:33:04 GMT 2026 - 4.2K bytes - Click Count (0) -
docs/ja/docs/tutorial/stream-json-lines.md
/// /// note | 技術詳細 各 JSON オブジェクトは改行で区切られるため、内容にリテラルな改行文字は含められません。ですが、エスケープした改行(`\n`)は含められます。これは JSON 標準の一部です。 とはいえ、通常は気にする必要はありません。自動で処理されますので、読み進めてください。🤓 /// ## ユースケース { #use-cases } これは **AI LLM** サービス、**ログ**や**テレメトリ**、あるいは **JSON** アイテムとして構造化できる他の種類のデータをストリームするのに使えます。 /// tip | 豆知識 動画や音声などのバイナリデータをストリームしたい場合は、上級ガイドを参照してください: [データのストリーム](../advanced/stream-data.md)。 ///Created: Sun Apr 05 07:19:11 GMT 2026 - Last Modified: Thu Mar 19 18:55:22 GMT 2026 - 5.1K bytes - Click Count (0) -
docs/ja/docs/advanced/stream-data.md
しかし、純粋なバイナリデータや文字列をストリームしたい場合は、次のようにできます。 /// info | 情報 FastAPI 0.134.0 で追加されました。 /// ## ユースケース { #use-cases } 例えば、AI LLM サービスの出力をそのまま、純粋な文字列としてストリームしたい場合に使えます。 メモリに一度に全て読み込むことなく、読み込みながらチャンクごとに送ることで、巨大なバイナリファイルをストリームすることにも使えます。 同様に、動画や音声をストリームすることもできます。処理しながら生成し、そのまま送信することも可能です。Created: Sun Apr 05 07:19:11 GMT 2026 - Last Modified: Thu Mar 19 18:55:22 GMT 2026 - 6.7K bytes - Click Count (0) -
src/main/java/org/codelibs/fess/Constants.java
/** Storage type configuration key (s3, gcs, auto). */ public static final String STORAGE_TYPE = "storage.type"; /** RAG LLM name configuration key. */ public static final String RAG_LLM_NAME = "rag.llm.name"; /** Storage region configuration key (for S3). */ public static final String STORAGE_REGION = "storage.region";Created: Tue Mar 31 13:07:34 GMT 2026 - Last Modified: Sat Mar 28 11:55:54 GMT 2026 - 35.8K bytes - Click Count (0) -
docs/en/docs/release-notes.md
* 🌐 Update Korean LLM prompt. PR [#14740](https://github.com/fastapi/fastapi/pull/14740) by [@hard-coders](https://github.com/hard-coders). * 🌐 Improve LLM prompt for Turkish translations. PR [#14728](https://github.com/fastapi/fastapi/pull/14728) by [@Kadermiyanyedi](https://github.com/Kadermiyanyedi).
Created: Sun Apr 05 07:19:11 GMT 2026 - Last Modified: Fri Apr 03 12:07:04 GMT 2026 - 631K bytes - Click Count (0) -
scripts/docs.py
new_path.mkdir() new_config_path: Path = Path(new_path) / mkdocs_name new_config_path.write_text("INHERIT: ../en/mkdocs.yml\n", encoding="utf-8") new_llm_prompt_path: Path = new_path / "llm-prompt.md" new_llm_prompt_path.write_text("", encoding="utf-8") print(f"Successfully initialized: {new_path}") update_languages() @app.command() def build_lang( lang: str = typer.Argument(
Created: Sun Apr 05 07:19:11 GMT 2026 - Last Modified: Thu Mar 05 17:46:10 GMT 2026 - 25.4K bytes - Click Count (0) -
docs/tr/docs/_llm-test.md
# LLM test dosyası { #llm-test-file } Bu doküman, dokümantasyonu çeviren <abbr title="Large Language Model">LLM</abbr>'nin `scripts/translate.py` içindeki `general_prompt`'u ve `docs/{language code}/llm-prompt.md` içindeki dile özel prompt'u anlayıp anlamadığını test eder. Dile özel prompt, `general_prompt`'a eklenir. Buraya eklenen testler, dile özel prompt'ları tasarlayan herkes tarafından görülecektir. Şu şekilde kullanın:Created: Sun Apr 05 07:19:11 GMT 2026 - Last Modified: Fri Mar 20 07:53:17 GMT 2026 - 11.1K bytes - Click Count (0)