Anthropic对数据进行聚合的、保护隐私的分析,以深入了解AI系统在现实世界中的影响以及我们产品的使用模式,同时严格维护用户隐私和敏感信息的机密性。我们方法的一个例子是Clio,这是一个使我们能够了解重要趋势和行为而不损害个人隐私或客户机密性的系统。
当我们将Clio用于研究目的或分析我们产品的聚合使用情况时,该系统:
自动匿名化和聚合信息,仅提取一般模式和趋势,同时省略私人或敏感细节
应用多重隐私保护措施,包括最小聚合阈值和自动验证,以确保结果不会泄露有关个人或小群体客户的信息
不为Anthropic员工提供访问原始用户对话或客户特定数据的权限
将所有洞察仅聚焦于广泛的聚合模式,从不分析任何特定个人或客户的行为
我们已经进行了广泛的测试、审计和基准测试,以验证Clio在用于这些目的时的输出不包含任何可识别的私人信息。有关Clio架构和我们严格隐私评估的详细信息,请参阅我们的研究论文。
为了进一步推进我们的使命,我们也可能与外部受众或公众分享关于我们AI系统如何被使用的聚合的、保护隐私的洞察。Clio实施了谨慎的聚合阈值,要求每个洞察代表用户和输入的有意义多样性,这可以防止识别个人的特定使用模式。
如我们的研究论文中所述,我们还使用Clio的不同版本来改进我们的安全系统。来自安全导向Clio运行的结果可以链接回个人账户。我们建立了严格的访问控制,将能够查看这些结果的人员限制在少数授权员工范围内。