跳转到主要内容

Clio如何在保护用户数据的同时分析使用模式?

更新于昨天

Anthropic 对数据进行聚合、保护隐私的分析,以深入了解 AI 系统的实际影响和我们产品的使用模式,同时严格维护用户隐私和敏感信息的机密性。我们方法的一个例子是 Clio,这是一个使我们能够了解重要趋势和行为而不损害个人隐私或客户机密性的系统。

当我们将 Clio 用于研究目的或分析我们的产品如何被整体使用时,该系统:

  • 自动匿名化和聚合信息,只提取一般模式和趋势,同时省略私人或敏感细节

  • 应用多重隐私保护措施,包括最小聚合阈值和自动验证,以确保结果不会泄露个人或小群体客户的信息

  • 不允许 Anthropic 员工访问原始用户对话或特定客户数据

  • 所有洞察仅关注广泛的聚合模式,绝不分析任何特定个人或客户的行为

我们已经进行了广泛的测试、审核和基准测试,以验证当用于这些目的时,Clio 的输出不包含任何可识别的私人信息。有关 Clio 架构和我们严格隐私评估的详细信息,请参阅我们的研究论文

为了进一步推进我们的使命,我们还可能与外部受众或公众分享关于我们的 AI 系统如何被使用的聚合、保护隐私的洞察。Clio 实施了谨慎的聚合阈值,要求每个洞察代表有意义的用户和输入多样性,这可以防止识别个人的特定使用模式。

如我们的研究论文所述,我们还使用 Clio 的另一个版本来改进我们的安全系统。安全focused的 Clio 运行结果可以追溯到个人账户。我们实施了严格的访问控制,限制只有少数获得授权的员工才能查看这些结果。

这是否解答了您的问题?