用户配置

UFO 中可用的用户配置选项概述。您需要将文件夹 ufo/config 中的 config.yaml.template 重命名为 config.yaml,以配置 LLM 和其他自定义设置。

LLM 配置

您可以在 config.yaml 文件中分别配置 HOST_AGENTAPP_AGENT 的 LLM。FollowerAgentEvaluationAgentAPP_AGENT 共享相同的 LLM 配置。此外,您可以在 BACKUP_AGENT 字段中配置一个备用 LLM 引擎,以处理主引擎在推理过程中失败的情况。

以下是 LLM 的配置选项,以 OpenAI 和 Azure OpenAI (AOAI) 为例。您可以在文档的 支持的模型 部分找到其他 LLM API 配置和用法的设置。

配置选项 描述 类型 默认值
VISUAL_MODE 是否使用视觉模式来理解屏幕截图并采取行动 布尔值 True
API_TYPE API 类型:"openai" 用于 OpenAI API,"aoai" 用于 AOAI API。 字符串 "openai"
API_BASE LLM 的 API 端点 字符串 "https://api.openai.com/v1/chat/completions"
API_KEY LLM 的 API 密钥 字符串 "sk-"
API_VERSION API 的版本 字符串 "2024-02-15-preview"
API_MODEL LLM 模型名称 字符串 "gpt-4-vision-preview"

适用于 Azure OpenAI (AOAI) API

AOAI API 提供以下附加配置选项

配置选项 描述 类型 默认值
API_DEPLOYMENT_ID 部署 ID,仅适用于 AOAI API 字符串 ""

确保为 HOST_AGENTAPP_AGENT 填写必要的 API 详细信息,以使 UFO 能够有效地与 LLM 交互。

LLM 参数

您还可以在 config.yaml 文件中配置 LLM 的附加参数

配置选项 描述 类型 默认值
MAX_TOKENS 响应完成的最大 token 限制 整数 2000
MAX_RETRY 响应完成的最大重试限制 整数 3
TEMPERATURE 模型的温度:值越低,模型的输出越一致 浮点数 0.0
TOP_P 模型的 top_p:值越低,模型的输出越保守 浮点数 0.0
TIMEOUT 调用超时时间(秒) 整数 60

用于增强 UFO 智能体的 RAG 配置

您可以在 config.yaml 文件中配置 RAG 参数,以通过额外的知识源增强 UFO 智能体

用于离线文档的 RAG 配置

配置以下参数,以允许 UFO 使用离线文档进行决策

配置选项 描述 类型 默认值
RAG_OFFLINE_DOCS 是否使用离线 RAG 布尔值 False
RAG_OFFLINE_DOCS_RETRIEVED_TOPK 离线检索文档的 topk 整数 1

配置以下参数,以允许 UFO 使用在线必应搜索进行决策

配置选项 描述 类型 默认值
RAG_ONLINE_SEARCH 是否使用必应搜索 布尔值 False
BING_API_KEY 必应搜索 API 密钥 字符串 ""
RAG_ONLINE_SEARCH_TOPK 在线搜索的 topk 整数 5
RAG_ONLINE_RETRIEVED_TOPK 在线检索搜索结果的 topk 整数 1

用于经验的 RAG 配置

配置以下参数,以允许 UFO 使用其自身经验中的 RAG

配置选项 描述 类型 默认值
RAG_EXPERIENCE 是否使用其自身经验中的 RAG 布尔值 False
RAG_EXPERIENCE_RETRIEVED_TOPK 离线检索文档的 topk 整数 5

用于演示的 RAG 配置

配置以下参数,以允许 UFO 使用用户演示中的 RAG

配置选项 描述 类型 默认值
RAG_DEMONSTRATION 是否使用用户演示中的 RAG 布尔值 False
RAG_DEMONSTRATION_RETRIEVED_TOPK 离线检索文档的 topk 整数 5
RAG_DEMONSTRATION_COMPLETION_N 演示结果的完成选择数量 整数 3

探索各种 RAG 配置,以通过额外的知识源增强 UFO 智能体,并提高其决策能力。