EN 立即下载

数据安全与隐私

了解各 AI 服务商的数据隐私政策,做出适合你的选择

为什么需要关注?

旗鱼作为 AI Agent,会将以下信息发送给 AI 服务商处理:

  • 终端输出(IP、路径、进程)
  • 命令历史(可能含密钥)
  • 服务器配置信息
  • 业务代码与日志
  • 这些数据不只可能被用于训练,还面临泄露、调取、内部访问等多重风险

国际服务商

API 层面默认不将用户数据用于模型训练,有明确的合同承诺。消费端产品(ChatGPT、Claude.ai 等)政策不同,需注意区分。

Anthropic (Claude) 默认不训练
训练数据: 默认不用于训练
数据保留: 30 天内自动删除
加密: TLS 传输 + 静态加密
零保留: 支持签署零保留协议
数据所有权: 用户拥有输入和输出

仅通过 Developer Partner Program 主动 opt-in 才用于训练,是目前政策最干净的服务商。

查看原始政策 →
OpenAI (GPT-4o / o3) 默认不训练
训练数据: 默认不用于训练(2023.3 起)
数据保留: 滥用监控日志保留 30 天
加密: AES-256 静态 + TLS 1.2+ 传输
零保留: 支持(需申请,企业可配置)
数据所有权: 用户拥有输入和输出

政策最透明、企业选项最丰富,支持自带加密密钥(EKM)。

查看原始政策 →
Google (Gemini) 默认不训练
训练数据: 付费 API 不用;免费层可能用
数据保留: 滥用检测日志保留 55 天
加密: 传输和静态加密
零保留: 不支持
数据所有权: 付费 API 数据不用于改进产品

免费层有训练风险,日志保留期(55 天)较另外两家更长。企业版通过 Cloud DPA 保障。

查看原始政策 →

国内服务商

以下为各服务商 API 开放平台的政策(非消费端 App)。多数 API 平台有独立的服务协议,政策可能优于消费端产品。所有服务商均受《个人信息保护法》《数据安全法》约束。

百炼(阿里) 默认不训练
训练数据: 明确承诺不用于训练
Opt-out: N/A(默认不训练)

官方文档明确:"绝不会将您的数据用于模型训练"。AES-256 加密,有独立服务协议。国内 API 中政策最明确。

查看原始政策 →
DeepSeek 可 Opt-out
训练数据: 默认可能用于训练(去标识化)
Opt-out: 可关闭"数据用于优化体验"开关

有独立的《开放平台服务协议》,但训练政策仍引用主隐私政策。建议用户不要输入敏感信息。

查看原始政策 →
豆包(火山方舟) 可 Opt-out
训练数据: 默认可能用于训练(去标识化)
Opt-out: 可关闭"帮助模型改进"

API 通过火山方舟平台提供,有独立的《豆包模型服务协议》和《数据授权使用协议》。

查看原始政策 →
千帆(百度) 有独立协议
训练数据: API 平台有独立安全白皮书
Opt-out: 参见千帆专项约定

API 通过千帆大模型平台提供(非文心一言 App),有独立用户协议和安全白皮书,AES-256 加密、等保三级。

查看原始政策 →
MiniMax 可 Opt-out
训练数据: 默认可能用于训练(去标识化)
Opt-out: 可联系客服关闭

API 平台(platform.minimaxi.com)有独立的开放平台协议。近期因 abab 系列模型和海螺 AI 视频生成影响力显著上升。

查看原始政策 →
智谱 GLM 政策模糊
训练数据: 未明确说明
Opt-out: 未明确

开放平台(bigmodel.cn)有独立隐私政策。明确用户拥有数据,禁止用输出训练竞争模型。

查看原始政策 →
Kimi(月之暗面) 政策模糊
训练数据: 可能用于"改进服务"
Opt-out: 未明确

开放平台(platform.moonshot.ai)有独立 Terms of Service 和隐私政策。

查看原始政策 →

数据风险不只是"训练"

"不用于训练"是好事,但你的数据在传输和存储过程中仍然面临多种风险:

服务器被入侵
数据在保留期内如遭遇黑客攻击,可能被泄露。保留越久风险越大。
内部人员访问
服务商进行滥用审查时,人工审核员可能看到你的对话内容。
政府/执法调取
不同司法管辖区的执法机构可依法要求服务商提供用户数据。
第三方分包商
云基础设施提供商、内容审核外包商等也可能接触到数据。
数据保留期
即使不训练,数据在服务器上存 30-55 天本身就扩大了暴露窗口。
跨境传输
数据可能存储在不同国家,适用不同的法律保护力度。

综合安全等级

推荐
不训练 + 加密 + 明确保留期
AnthropicOpenAIGoogle(付费)百炼(阿里)
谨慎使用
需手动关闭训练/有独立协议
DeepSeek豆包千帆(百度)MiniMax
不推荐敏感场景
训练政策不明确
智谱KimiGoogle(免费)

法律环境

按场景选择

高敏感(金融/政务)
本地部署开源模型(DeepSeek / Qwen)
企业/生产服务器
Anthropic / OpenAI 付费 API
个人开发/学习
任意 API(确保关闭训练开关)
公开信息处理
任意服务商均可

安全建议

  1. 优先使用 API 而非消费端产品 — API 的数据保护政策普遍优于 ChatGPT、文心一言 App 等消费端
  2. 使用国内服务时务必检查设置 — 确认关闭"数据用于模型改进"类开关
  3. 避免在对话中直接粘贴密码、API Key 等敏感信息 — 即使服务商承诺不训练,数据仍会短暂经过其服务器
  4. 定期审查服务商隐私政策更新 — 隐私政策可能随时变化,建议每半年复查一次
  5. 敏感环境考虑本地模型 — 数据完全不出本机,是最安全的选择

本页基于 2026 年 3 月各服务商公开政策文档整理,仅供参考,不构成法律建议。政策可能随时更新,建议使用前访问原始链接确认最新版本。