EN 立即下载

模型配置详解

旗鱼支持同时配置多个 AI 模型,你可以根据不同场景随时切换。本文介绍模型管理的完整功能。

支持的服务商

旗鱼内置了以下服务商的预设模板,点击即可自动填充 API 地址和默认模型:

服务商说明推荐模型
DeepSeek国产推理模型,性价比极高deepseek-chat / deepseek-reasoner
通义千问 (Qwen)阿里云大模型qwen-plus / qwen-max
OpenAIGPT 系列,全球领先gpt-4o / gpt-4o-mini / o1
ClaudeAnthropic 出品,擅长长文本和代码claude-sonnet-4-6 / claude-3.5-haiku
GeminiGoogle 出品,多模态能力强gemini-2.0-flash
Ollama本地部署,完全免费离线支持所有 Ollama 模型

还支持豆包、智谱、Kimi、Grok、Mistral 等更多兼容 OpenAI 接口的服务商。

没有 API Key? 如果你还没有 AI 服务的 API Key,推荐先注册 DeepSeek——注册送额度,模型能力强,性价比最高。

添加模型配置

  1. 打开 设置 → AI 模型配置
  2. 点击「新增」
  3. 选择一个服务商模板(自动填充 API 地址)或手动输入
  4. 填写以下字段:
字段必填说明
名称自定义名称,方便区分(如「日常 DeepSeek」「复杂任务 Claude」)
API 地址服务商的 API 端点,选模板后自动填充
API Key⚠️服务商提供的密钥(Ollama 等本地部署可留空)
模型要使用的模型名称(如 gpt-4odeepseek-chat
模型类型通用 或 视觉,影响多模态路由
关联视觉模型为纯文本模型关联一个能看图的模型
代理该配置专用的 HTTP/SOCKS 代理,可选
  1. 点击保存
  2. 点击「使用」按钮将该模型设为当前活跃模型

多模型管理策略

推荐配置 2-3 个模型,根据场景灵活切换:

场景推荐模型原因
日常使用DeepSeek Chat / Qwen Plus便宜、速度快、中文好
复杂推理DeepSeek R1 / Claude / o1思维链推理能力强
看图分析GPT-4o / Claude Sonnet / Gemini视觉能力好
离线使用Ollama (Qwen2.5/Llama)完全免费、不联网

在对话区顶部的模型选择器中可以随时切换,不会丢失当前对话上下文。

混合多模态(关联视觉模型)

许多强大的推理模型(如 DeepSeek R1)不支持图片输入,而视觉模型在复杂推理上可能不如专业文本模型。旗鱼的「关联模型」功能让你两全其美。

工作原理

  1. 你发送了一张图片或截图
  2. 旗鱼检测到消息中包含图片
  3. 检查当前主模型是否支持视觉
  4. 如果不支持 → 自动切换到关联的视觉模型处理本次请求
  5. 视觉模型处理完毕后,后续纯文本对话继续使用主模型

配置方法

  1. 打开 设置 → AI 模型配置
  2. 确保你已添加一个支持图片的模型(如 GPT-4o)并将其「模型类型」设为 视觉
  3. 编辑你的主力文本模型(如 DeepSeek R1),将「模型类型」设为 通用
  4. 在「关联视觉模型」下拉框中选择刚才的视觉模型
  5. 确保「自动视觉模型切换」开关已开启(设置 → 通用)

典型使用场景

你的主力模型是 DeepSeek R1,关联视觉模型为 GPT-4o:

你的消息使用的模型原因
纯文本:「分析这段代码的性能问题」DeepSeek R1推理能力强
截图:「这个报错怎么解决?」自动切换 GPT-4o能看图
追问:「还有其他优化建议吗?」回到 DeepSeek R1纯文本

使用建议

  • 主模型选推理能力最强的(如 DeepSeek R1、o1),关联模型选视觉能力好的(如 GPT-4o、Claude Sonnet)
  • 如果主模型本身支持视觉(如 GPT-4o),无需配置关联模型
  • 切换是按次请求进行的,不会影响对话连贯性

代理设置

如果你需要通过代理访问海外 AI 服务(如 OpenAI、Claude、Gemini),可以为每个模型配置独立的代理:

  1. 编辑对应的 AI 配置
  2. 在「代理」字段填入代理地址:
    • HTTP 代理:http://127.0.0.1:7890
    • SOCKS5 代理:socks5://127.0.0.1:1080
  3. 保存即可

代理设置是按配置独立的——DeepSeek 可以直连,OpenAI 走代理,互不影响。

Ollama 本地部署

使用 Ollama 可以在本地运行 AI 模型,完全免费且不需要网络:

安装 Ollama

  1. 访问 ollama.com 下载安装
  2. 打开终端,拉取模型:
ollama pull qwen2.5:7b    # 推荐,中文能力好
ollama pull llama3.1:8b    # 英文能力强

在旗鱼中配置

  1. 新增 AI 配置,选择 Ollama 模板
  2. API 地址会自动填充为 http://localhost:11434
  3. API Key 留空
  4. 模型名称填写你拉取的模型名(如 qwen2.5:7b

注意:本地模型的能力取决于模型大小和你的硬件配置。7B 参数模型适合日常使用,复杂任务建议配合云端大模型。

常见问题

API Key 填了但报错 401

  • 检查 Key 是否完整(没有多余空格或遗漏字符)
  • 确认 Key 对应的账号有余额
  • 部分服务商需要先充值才能使用

模型名称填什么?

  • 使用服务商文档中列出的模型 ID(区分大小写)
  • gpt-4o(非 GPT-4o)、deepseek-chat(非 DeepSeek Chat

切换模型后 AI 行为不同了

  • 不同模型的能力差异很大,这是正常的
  • 小模型可能无法完成复杂的多步骤任务
  • 如果某个任务用当前模型效果不好,试试切换到更强的模型