模型配置详解
旗鱼支持同时配置多个 AI 模型,你可以根据不同场景随时切换。本文介绍模型管理的完整功能。
支持的服务商
旗鱼内置了以下服务商的预设模板,点击即可自动填充 API 地址和默认模型:
| 服务商 | 说明 | 推荐模型 |
|---|---|---|
| DeepSeek | 国产推理模型,性价比极高 | deepseek-chat / deepseek-reasoner |
| 通义千问 (Qwen) | 阿里云大模型 | qwen-plus / qwen-max |
| OpenAI | GPT 系列,全球领先 | gpt-4o / gpt-4o-mini / o1 |
| Claude | Anthropic 出品,擅长长文本和代码 | claude-sonnet-4-6 / claude-3.5-haiku |
| Gemini | Google 出品,多模态能力强 | gemini-2.0-flash |
| Ollama | 本地部署,完全免费离线 | 支持所有 Ollama 模型 |
还支持豆包、智谱、Kimi、Grok、Mistral 等更多兼容 OpenAI 接口的服务商。
没有 API Key? 如果你还没有 AI 服务的 API Key,推荐先注册 DeepSeek——注册送额度,模型能力强,性价比最高。
添加模型配置
- 打开 设置 → AI 模型配置
- 点击「新增」
- 选择一个服务商模板(自动填充 API 地址)或手动输入
- 填写以下字段:
| 字段 | 必填 | 说明 |
|---|---|---|
| 名称 | ✅ | 自定义名称,方便区分(如「日常 DeepSeek」「复杂任务 Claude」) |
| API 地址 | ✅ | 服务商的 API 端点,选模板后自动填充 |
| API Key | ⚠️ | 服务商提供的密钥(Ollama 等本地部署可留空) |
| 模型 | ✅ | 要使用的模型名称(如 gpt-4o、deepseek-chat) |
| 模型类型 | ✅ | 通用 或 视觉,影响多模态路由 |
| 关联视觉模型 | — | 为纯文本模型关联一个能看图的模型 |
| 代理 | — | 该配置专用的 HTTP/SOCKS 代理,可选 |
- 点击保存
- 点击「使用」按钮将该模型设为当前活跃模型
多模型管理策略
推荐配置 2-3 个模型,根据场景灵活切换:
| 场景 | 推荐模型 | 原因 |
|---|---|---|
| 日常使用 | DeepSeek Chat / Qwen Plus | 便宜、速度快、中文好 |
| 复杂推理 | DeepSeek R1 / Claude / o1 | 思维链推理能力强 |
| 看图分析 | GPT-4o / Claude Sonnet / Gemini | 视觉能力好 |
| 离线使用 | Ollama (Qwen2.5/Llama) | 完全免费、不联网 |
在对话区顶部的模型选择器中可以随时切换,不会丢失当前对话上下文。
混合多模态(关联视觉模型)
许多强大的推理模型(如 DeepSeek R1)不支持图片输入,而视觉模型在复杂推理上可能不如专业文本模型。旗鱼的「关联模型」功能让你两全其美。
工作原理
- 你发送了一张图片或截图
- 旗鱼检测到消息中包含图片
- 检查当前主模型是否支持视觉
- 如果不支持 → 自动切换到关联的视觉模型处理本次请求
- 视觉模型处理完毕后,后续纯文本对话继续使用主模型
配置方法
- 打开 设置 → AI 模型配置
- 确保你已添加一个支持图片的模型(如 GPT-4o)并将其「模型类型」设为 视觉
- 编辑你的主力文本模型(如 DeepSeek R1),将「模型类型」设为 通用
- 在「关联视觉模型」下拉框中选择刚才的视觉模型
- 确保「自动视觉模型切换」开关已开启(设置 → 通用)
典型使用场景
你的主力模型是 DeepSeek R1,关联视觉模型为 GPT-4o:
| 你的消息 | 使用的模型 | 原因 |
|---|---|---|
| 纯文本:「分析这段代码的性能问题」 | DeepSeek R1 | 推理能力强 |
| 截图:「这个报错怎么解决?」 | 自动切换 GPT-4o | 能看图 |
| 追问:「还有其他优化建议吗?」 | 回到 DeepSeek R1 | 纯文本 |
使用建议
- 主模型选推理能力最强的(如 DeepSeek R1、o1),关联模型选视觉能力好的(如 GPT-4o、Claude Sonnet)
- 如果主模型本身支持视觉(如 GPT-4o),无需配置关联模型
- 切换是按次请求进行的,不会影响对话连贯性
代理设置
如果你需要通过代理访问海外 AI 服务(如 OpenAI、Claude、Gemini),可以为每个模型配置独立的代理:
- 编辑对应的 AI 配置
- 在「代理」字段填入代理地址:
- HTTP 代理:
http://127.0.0.1:7890 - SOCKS5 代理:
socks5://127.0.0.1:1080
- HTTP 代理:
- 保存即可
代理设置是按配置独立的——DeepSeek 可以直连,OpenAI 走代理,互不影响。
Ollama 本地部署
使用 Ollama 可以在本地运行 AI 模型,完全免费且不需要网络:
安装 Ollama
- 访问 ollama.com 下载安装
- 打开终端,拉取模型:
ollama pull qwen2.5:7b # 推荐,中文能力好
ollama pull llama3.1:8b # 英文能力强
在旗鱼中配置
- 新增 AI 配置,选择 Ollama 模板
- API 地址会自动填充为
http://localhost:11434 - API Key 留空
- 模型名称填写你拉取的模型名(如
qwen2.5:7b)
注意:本地模型的能力取决于模型大小和你的硬件配置。7B 参数模型适合日常使用,复杂任务建议配合云端大模型。
常见问题
API Key 填了但报错 401
- 检查 Key 是否完整(没有多余空格或遗漏字符)
- 确认 Key 对应的账号有余额
- 部分服务商需要先充值才能使用
模型名称填什么?
- 使用服务商文档中列出的模型 ID(区分大小写)
- 如
gpt-4o(非GPT-4o)、deepseek-chat(非DeepSeek Chat)
切换模型后 AI 行为不同了
- 不同模型的能力差异很大,这是正常的
- 小模型可能无法完成复杂的多步骤任务
- 如果某个任务用当前模型效果不好,试试切换到更强的模型