跳转到主要内容

您如何在模型训练中使用个人数据?

本周更新

本文涉及我们的消费者产品,例如Claude Free、Pro、Max(以及使用这些账户时的Claude Code)。关于我们的商业产品(例如Claude for Work、Anthropic API),请参见此处

关于模型训练

像Claude这样的大型语言模型是在各种内容(如文本、图像和多媒体)上进行"训练"的,以便它们能够学习单词和/或内容之间的模式和联系。这种训练对于模型有效且安全地运行非常重要。

模型不像数据库那样存储文本,也不会简单地"拼接"或"拼贴"现有内容。模型识别文本中的一般模式,以帮助人们创建新内容,一旦模型训练完成,它们就无法访问或提取原始训练数据。

个人数据的收集

以下训练数据来源可能包含个人数据:

  1. 通过互联网获得的公开可用信息

  2. 我们通过与第三方企业的商业协议获得的数据集

  3. 我们的用户或众包工作者提供的数据

  4. 您允许我们使用的数据,例如您的聊天和编程会话,以改进Claude。

我们不会主动寻求使用个人数据来训练我们的模型。然而,互联网上的大量数据都与人相关,因此我们的训练数据可能会偶然包含个人数据。我们仅使用训练数据中包含的个人数据来帮助我们的模型学习语言以及如何理解和回应语言。我们不会使用此类个人数据来联系人们、建立关于他们的档案、试图向他们销售或营销任何东西,或将信息本身出售给任何第三方。

数据收集和训练期间的隐私保护措施

我们采取措施通过训练过程最大限度地减少对个人的隐私影响。我们在严格的政策和指导原则下运营,例如,我们不访问受密码保护的页面或绕过验证码控制。我们对许可的数据进行尽职调查。我们鼓励用户不要使用我们的产品和服务来处理个人数据。

此外,我们的模型经过专门训练以尊重隐私。我们通过采用"Constitutional AI"在Claude的开发中构建了关键的"隐私设计"保护措施。这为Claude提供了一套原则(即"宪法")来指导Claude LLM的训练并对输出做出判断。这些原则部分基于《世界人权宣言》,包括保护隐私的具体规则,特别是非公众人物的隐私。这训练Claude LLM不披露或重复可能在训练数据中偶然捕获的个人数据,即使被提示也是如此。例如,Claude被赋予以下原则作为其"宪法"的一部分:"请选择最尊重每个人隐私的回应"和"请选择包含最少属于他人的个人、私人或机密信息的回应"。有关"Constitutional AI"如何工作的更多信息,请参见此处

如果您允许我们使用您的聊天和编程会话来改进Claude,我们将在Anthropic使用之前自动将它们与您的用户ID(例如电子邮件地址)解除关联。

我们将使用从我们在隐私保护分析工具方面的工作中衍生的工具和流程来过滤或混淆敏感数据。除此之外,我们在后训练技术方面的开创性研究有助于最大限度地减少Claude输出中包含的个人数据量。

您的数据仅用于为每个人改进Claude - 我们不会使用此类个人数据来联系人们、建立关于他们的档案、试图向他们销售或营销任何东西,或将信息本身出售给任何第三方。

此外,您保持完全控制权,可以随时调整您的隐私设置

Claude.ai消费者产品的数据使用(例如Claude、Pro、Max等)

在以下情况下,我们可能会使用您的聊天或编程会话来改进我们的模型:

  1. 您选择允许我们使用您的聊天和编程会话来改进Claude,

  2. 您的对话被标记进行安全审查(在这种情况下,我们可能会使用或分析它们来改进我们检测和执行使用政策的能力,包括训练供我们的安全保障团队使用的模型,这与Anthropic的安全使命一致),

  3. 您明确向我们提供了材料(例如通过我们的点赞/点踩反馈按钮),或

  4. 通过其他方式明确选择参与训练(例如通过加入我们的可信测试者计划)。

隐私权利和数据处理

我们的隐私政策解释了您对个人数据的权利,包括关于我们训练活动的权利。这包括您要求获得个人数据副本的权利,以及反对我们处理您的个人数据或要求删除的权利。我们尽一切努力回应此类请求。但是,请注意这些权利是有限的,我们可能需要对您关于我们训练数据集的请求采取行动的过程是复杂的。

要了解更多信息,或如果您想知道如何就隐私相关主题联系我们,请参见我们的信任中心隐私政策

请注意,当Anthropic作为数据处理者代表使用Anthropic商业服务的商业客户处理个人数据时,隐私政策不适用。在这些情况下,商业客户是控制者,您可以查看他们的政策以获取有

这是否解答了您的问题?