支持的模型

UFO 支持多种 LLM 模型和 API。您可以在 config.yaml 文件中自定义 HOST_AGENTAPP_AGENT 使用的模型和 API。此外,您还可以配置一个 BACKUP_AGENT 来处理主代理无法响应的请求。

请参阅以下部分,了解有关支持的模型和 API 的更多信息

LLMs 文档
OPENAI OpenAI API
Azure OpenAI (AOAI) Azure OpenAI API
Gemini Gemini API
Claude Claude API
QWEN QWEN API
Ollama Ollama API
自定义 自定义 API

信息

每个模型都在 ufo/llm 目录中作为单独的类实现,并使用 ufo/llm/base.py 文件中 BaseService 类中定义的 chat_completion 函数从模型获取响应。