数据安全与隐私
了解各 AI 服务商的数据隐私政策,做出适合你的选择
旗鱼作为 AI Agent,会将以下信息发送给 AI 服务商处理:
- 终端输出(IP、路径、进程)
- 命令历史(可能含密钥)
- 服务器配置信息
- 业务代码与日志
- 这些数据不只可能被用于训练,还面临泄露、调取、内部访问等多重风险
国际服务商
API 层面默认不将用户数据用于模型训练,有明确的合同承诺。消费端产品(ChatGPT、Claude.ai 等)政策不同,需注意区分。
仅通过 Developer Partner Program 主动 opt-in 才用于训练,是目前政策最干净的服务商。
查看原始政策 →政策最透明、企业选项最丰富,支持自带加密密钥(EKM)。
查看原始政策 →免费层有训练风险,日志保留期(55 天)较另外两家更长。企业版通过 Cloud DPA 保障。
查看原始政策 →国内服务商
以下为各服务商 API 开放平台的政策(非消费端 App)。多数 API 平台有独立的服务协议,政策可能优于消费端产品。所有服务商均受《个人信息保护法》《数据安全法》约束。
官方文档明确:"绝不会将您的数据用于模型训练"。AES-256 加密,有独立服务协议。国内 API 中政策最明确。
查看原始政策 →有独立的《开放平台服务协议》,但训练政策仍引用主隐私政策。建议用户不要输入敏感信息。
查看原始政策 →API 通过火山方舟平台提供,有独立的《豆包模型服务协议》和《数据授权使用协议》。
查看原始政策 →API 通过千帆大模型平台提供(非文心一言 App),有独立用户协议和安全白皮书,AES-256 加密、等保三级。
查看原始政策 →API 平台(platform.minimaxi.com)有独立的开放平台协议。近期因 abab 系列模型和海螺 AI 视频生成影响力显著上升。
查看原始政策 →开放平台(platform.moonshot.ai)有独立 Terms of Service 和隐私政策。
查看原始政策 →数据风险不只是"训练"
"不用于训练"是好事,但你的数据在传输和存储过程中仍然面临多种风险:
综合安全等级
法律环境
中国
- 使用个人信息训练模型必须取得个人同意
- 不得非法留存可识别用户身份的输入信息
- 主管部门可要求说明训练数据来源和规模
- 第 13 条:处理个人信息应取得个人同意
- 第 14 条:同意须充分知情、自愿、明确
- 第 15 条:用户有权撤回同意,禁止捆绑/一揽子同意
2024 年南都测评:国内多数平台未提供便捷的拒绝和退出渠道,实际合规仍有差距。
欧盟
- 第 5(1)(c) 条:数据最小化,只处理必需数据
- 第 5(1)(b) 条:目的限制,不得未经同意挪作训练
- 第 22 条:用户有权获得 AI 决策的解释
- GPAI 模型条款 2025 年 8 月生效
- 多数条款 2026 年 8 月全面生效
- 要求公开训练数据摘要(六类数据源)
截至 2024 年,GDPR 累计罚款已达 58.8 亿欧元。数据进入模型权重后删除不可执行,预防是唯一合规策略。
美国
- 无综合性联邦 AI 法案
- 现政府倾向减少监管
- 加州 AB 2013:训练数据透明度法案
- 加州 SB 53:前沿 AI 透明度,违规罚 100 万美元
- 科罗拉多:首部综合性州级 AI 法(2026.6 生效)
- 超过 30 个州正在推进 AI 立法
按场景选择
安全建议
- 优先使用 API 而非消费端产品 — API 的数据保护政策普遍优于 ChatGPT、文心一言 App 等消费端
- 使用国内服务时务必检查设置 — 确认关闭"数据用于模型改进"类开关
- 避免在对话中直接粘贴密码、API Key 等敏感信息 — 即使服务商承诺不训练,数据仍会短暂经过其服务器
- 定期审查服务商隐私政策更新 — 隐私政策可能随时变化,建议每半年复查一次
- 敏感环境考虑本地模型 — 数据完全不出本机,是最安全的选择
本页基于 2026 年 3 月各服务商公开政策文档整理,仅供参考,不构成法律建议。政策可能随时更新,建议使用前访问原始链接确认最新版本。