跳至主要內容

Clio 如何在保護用戶數據的同時分析使用模式?

昨日已更新

Anthropic 執行聚合的、保護隱私的數據分析,以深入了解AI系統的真實世界影響以及我們產品的使用模式,同時嚴格維護用戶隱私和敏感信息的機密性。我們方法的一個例子是 Clio,這是一個讓我們能夠理解重要趨勢和行為而不損害個人隱私或客戶機密性的系統。

當我們將Clio用於研究目的或分析我們產品的整體使用情況時,該系統:

  • 自動匿名化和聚合信息,僅提取一般模式和趨勢,同時省略私人或敏感細節

  • 應用多重隱私保護措施,包括最小聚合閾值和自動驗證,以確保結果不會透露個人或小群體客戶的信息

  • 不為Anthropic員工提供訪問原始用戶對話或客戶特定數據的權限

  • 所有洞察僅專注於廣泛的聚合模式,從不分析任何特定個人或客戶的行為

我們已經進行了廣泛的測試、審計和基準測試,以驗證Clio在用於這些目的時,其輸出不包含任何可識別的私人信息。有關Clio架構和我們嚴格隱私評估的詳細信息,請參閱我們的研究論文

為了進一步推進我們的使命,我們也可能與外部受眾或公眾分享關於我們AI系統如何被使用的聚合的、保護隱私的洞察。Clio實施謹慎的聚合閾值,要求每個洞察代表用戶和輸入的有意義多樣性,這可以防止識別個人的特定使用模式。

如我們的研究論文所述,我們也使用Clio的不同版本來改進我們的安全系統。專注於安全的Clio運行結果可以追溯到個人帳戶。我們實施嚴格的訪問控制,限制只有少數授權員工可以查看這些結果。

是否回答了您的問題?