跳至主要內容

Clio如何在保護用戶數據的同時分析使用模式?

昨日已更新

Anthropic 進行匯總的、保護隱私的數據分析,以深入了解 AI 系統對現實世界的影響以及我們產品的使用模式,同時嚴格維護用戶隱私和敏感信息的機密性。我們方法的一個例子是 Clio,這是一個使我們能夠了解重要趨勢和行為而不損害個人隱私或客戶機密性的系統。

當我們將 Clio 用於研究目的或分析我們的產品如何被整體使用時,該系統:

  • 自動匿名化和匯總信息,只提取一般模式和趨勢,同時省略私人或敏感細節

  • 應用多重隱私保護措施,包括最低匯總閾值和自動驗證,以確保結果不會揭示個人或小群體客戶的信息

  • 不允許 Anthropic 員工訪問原始用戶對話或特定客戶數據

  • 所有洞察只關注廣泛的、匯總的模式,絕不分析任何特定個人或客戶的行為

我們已經進行了廣泛的測試、審核和基準測試,以驗證當用於這些目的時,Clio 的輸出不包含任何可識別的私人信息。有關 Clio 架構和我們嚴格隱私評估的詳細信息,請參閱我們的研究論文

為了進一步推進我們的使命,我們也可能與外部受眾或公眾分享關於我們的 AI 系統如何被使用的匯總、保護隱私的洞察。Clio 實施了謹慎的匯總閾值,要求每個洞察代表有意義的用戶和輸入多樣性,這可以防止識別個人的特定使用模式。

如我們的研究論文所述,我們還使用 Clio 的不同版本來改進我們的安全系統。安全focused的 Clio 運行結果可以追溯到個別帳戶。我們實施了嚴格的訪問控制,限制只有少數獲授權的員工才能查看這些結果。

是否回答了您的問題?