[Index]
System-wide AI and LLM settings. Controls LLM summarization parameters and LangSmith diagnostics tracing.
| Title | Description | Details | |||||||||||||||||||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Name * | Name of this AI settings instance. Default: Global |
|
|||||||||||||||||||||||||||||||||||||||||||||||
| Summarization Timeout (seconds) | Maximum time in seconds to wait for an LLM summarization call before timing out. Default: 300 |
|
|||||||||||||||||||||||||||||||||||||||||||||||
| Max Summary Length (characters) | Maximum number of characters for a generated LLM summary before truncation. Default: 2000 |
|
|||||||||||||||||||||||||||||||||||||||||||||||
| Max Input Tokens | Maximum estimated token budget for the summarization LLM input prompt. Large detection outputs are compressed or capped to fit within this limit. Uses chars/4 approximation. Default: 100000 |
|
|||||||||||||||||||||||||||||||||||||||||||||||
| Diagnostics | LangSmith tracing and diagnostics settings for LLM observability. |
|
|||||||||||||||||||||||||||||||||||||||||||||||
| Enable LangSmith Tracing | Enable LangSmith tracing for LLM calls. Do not enable in production unless actively debugging. |
|
|||||||||||||||||||||||||||||||||||||||||||||||
| LangSmith Project Name | Project name in LangSmith for organizing traces. |
|
|||||||||||||||||||||||||||||||||||||||||||||||
| LangSmith Workspace ID | Workspace ID in LangSmith for organizing traces. |
|
|||||||||||||||||||||||||||||||||||||||||||||||
| LangSmith API Key | API key for authenticating with LangSmith. Stored encrypted. |
|
|||||||||||||||||||||||||||||||||||||||||||||||
| Hide Inputs | When enabled, LLM input payloads are not sent to LangSmith. Recommended for production to protect sensitive data. Default: True |
|
|||||||||||||||||||||||||||||||||||||||||||||||
| Hide Outputs | When enabled, LLM output payloads are not sent to LangSmith. Recommended for production to protect sensitive data. Default: True |
|
|||||||||||||||||||||||||||||||||||||||||||||||