支持的模型
UFO 支持多种 LLM 模型和 API。您可以在 config.yaml
文件中自定义 HOST_AGENT
和 APP_AGENT
使用的模型和 API。此外,您还可以配置一个 BACKUP_AGENT
来处理主代理无法响应的请求。
请参阅以下部分,了解有关支持的模型和 API 的更多信息
LLMs | 文档 |
---|---|
OPENAI |
OpenAI API |
Azure OpenAI (AOAI) |
Azure OpenAI API |
Gemini |
Gemini API |
Claude |
Claude API |
QWEN |
QWEN API |
Ollama |
Ollama API |
自定义 |
自定义 API |
信息
每个模型都在 ufo/llm
目录中作为单独的类实现,并使用 ufo/llm/base.py
文件中 BaseService
类中定义的 chat_completion
函数从模型获取响应。