本文是关于我们的消费者产品(如Claude Free、Claude Pro)。有关我们的商业产品(如Claude for Work、Anthropic API),请参见此处。
关于模型训练
像Claude这样的大型语言模型在各种内容(如文本、图像和多媒体)上进行"训练",以便学习单词和/或内容之间的模式和联系。这种训练对于模型的有效和安全运行非常重要。
模型不像数据库那样存储文本,也不是简单地"拼凑"或"拼贴"现有内容。模型识别文本中的一般模式,以帮助人们创建新内容,一旦模型训练完成,它们就无法访问或提取原始训练数据。
个人数据的收集
以下三个训练数据来源可能包含个人数据:
通过互联网公开可用的信息
我们通过与第三方企业的商业协议获得的数据集
我们的用户或众包工作者提供的数据
我们并不主动收集个人数据来训练我们的模型。然而,互联网上大量数据与人有关,所以我们的训练数据可能会偶然包含个人数据。
我们仅使用训练数据中包含的个人数据来帮助我们的模型学习语言以及如何理解和回应语言。我们不会使用这些个人数据来联系人们,建立他们的档案,试图向他们销售或营销任何东西,或将信息本身出售给任何第三方。
数据收集和训练期间的隐私保护措施
我们采取措施通过训练过程最大限度地减少对个人隐私的影响。我们遵循严格的政策和指导方针,例如我们不访问受密码保护的页面或绕过验证码控制。我们对我们获得许可的数据进行尽职调查。我们鼓励用户不要使用我们的产品和服务来处理个人数据。
此外,我们的模型经过专门训练以尊重隐私。我们通过采用"宪法人工智能"将关键的"隐私设计"保护措施内置到Claude的开发中。这为Claude提供了一套原则(即"宪法")来指导Claude LLM的训练并做出关于输出的判断。这些原则部分基于《世界人权宣言》,包括保护隐私的具体规则,特别是非公众人物的隐私。这训练Claude LLM不披露或重复可能在训练数据中偶然捕获的个人数据,即使被提示也不会。例如,Claude被赋予以下原则作为其"宪法"的一部分:"请选择最尊重每个人隐私的回应"和"请选择包含最少属于他人的个人、私密或机密信息的回应"。有关"宪法人工智能"如何工作的更多信息,请参见此处。
Claude.ai消费者产品(如免费Claude.ai、Claude Pro计划)的数据使用
我们不会使用您的输入或输出来训练我们的生成模型,除非:(1)您的对话被标记为信任与安全审查(在这种情况下,我们可能会使用或分析它们来改善我们检测和执行使用政策的能力,包括为我们的信任和安全团队训练模型,与Anthropic的安全使命一致),(2)您已明确向我们报告了材料(例如通过我们的反馈机制),或(3)以其他方式明确选择参与训练。
隐私权和数据处理
我们的隐私政策解释了您对个人数据的权利,包括与我们的训练活动有关的权利。这包括您请求获取个人数据副本的权利,以及反对我们处理您的个人数据或要求删除的权利。我们尽最大努力回应此类请求。但是,请注意,这些权利是有限的,我们可能需要采取行动处理您关于我们训练数据集的请求的过程是复杂的。
请注意,隐私政策不适用于Anthropic作为数据处理者代表使用Anthropic商业服务的商业客户处理个人数据的情况。在这些情况下,商业客户是控制者,您可以查看他们的政策以了解更多关于他们如何处理您的个人数据的信息。