Anthropic 對數據進行聚合的、保護隱私的分析,以深入了解AI系統在現實世界中的影響以及我們產品的使用模式,同時嚴格維護用戶隱私和敏感信息的機密性。我們方法的一個例子是 Clio,這是一個讓我們能夠了解重要趨勢和行為而不損害個人隱私或客戶機密性的系統。
當我們將 Clio 用於研究目的或分析我們產品的整體使用情況時,該系統:
自動匿名化和聚合信息,僅提取一般模式和趨勢,同時省略私人或敏感細節
應用多重隱私保護措施,包括最小聚合閾值和自動驗證,以確保結果不會透露個人或小群體客戶的信息
不為 Anthropic 員工提供訪問原始用戶對話或客戶特定數據的權限
將所有洞察僅聚焦於廣泛的聚合模式,從不分析任何特定個人或客戶的行為
我們已經進行了廣泛的測試、審計和基準測試,以驗證 Clio 在用於這些目的時,其輸出不包含任何可識別的私人信息。有關 Clio 架構和我們嚴格隱私評估的詳細信息,請參閱我們的研究論文。
為了進一步推進我們的使命,我們也可能與外部受眾或公眾分享關於我們AI系統如何被使用的聚合的、保護隱私的洞察。Clio 實施謹慎的聚合閾值,要求每個洞察代表用戶和輸入的有意義多樣性,這可以防止識別個人的特定使用模式。
如我們的研究論文所述,我們也使用不同版本的 Clio 來改進我們的安全系統。來自安全導向 Clio 運行的結果可以追溯到個人帳戶。我們實施嚴格的訪問控制,限制只有少數授權員工可以查看這些結果。