支持的模型
UFO 支持多种 LLM 模型和 API。您可以在 config.yaml 文件中自定义 HOST_AGENT 和 APP_AGENT 使用的模型和 API。此外,您还可以配置一个 BACKUP_AGENT 来处理主代理无法响应的请求。
请参阅以下部分,了解有关支持的模型和 API 的更多信息
| LLMs | 文档 |
|---|---|
OPENAI |
OpenAI API |
Azure OpenAI (AOAI) |
Azure OpenAI API |
Gemini |
Gemini API |
Claude |
Claude API |
QWEN |
QWEN API |
Ollama |
Ollama API |
自定义 |
自定义 API |
信息
每个模型都在 ufo/llm 目录中作为单独的类实现,并使用 ufo/llm/base.py 文件中 BaseService 类中定义的 chat_completion 函数从模型获取响应。