Anthropicは、ユーザーのプライバシーと機密情報の秘匿性を厳格に維持しながら、AIシステムの実世界への影響と当社製品の使用パターンに関する洞察を得るために、集約された、プライバシー保護分析をデータに対して実行しています。当社のアプローチの一例として、個人のプライバシーや顧客の機密性を損なうことなく重要なトレンドや行動を理解することを可能にするシステムClioがあります。
研究目的や当社製品の集約的な使用状況分析にClioを使用する際、このシステムは以下を行います:
情報を自動的に匿名化・集約し、プライベートまたは機密の詳細を除外しながら一般的なパターンやトレンドのみを抽出する
最小集約閾値や自動検証を含む複数のプライバシー保護措置を適用し、結果が個人や少数の顧客グループに関する情報を明かさないことを確保する
Anthropicの従業員が生のユーザー会話や顧客固有のデータにアクセスできないようにする
すべての洞察を広範囲で集約されたパターンのみに焦点を当て、特定の個人や顧客の行動を分析することは決してない
これらの目的でClioを使用する際に、その出力に識別可能な個人情報が含まれないことを検証するため、広範囲なテスト、監査、ベンチマークを実施しています。Clioのアーキテクチャと当社の厳格なプライバシー評価に関する詳細情報については、当社の研究論文をご覧ください。
当社のミッションをさらに推進するため、当社のAIシステムがどのように使用されているかに関する集約された、プライバシー保護の洞察を外部の聴衆や一般公衆と共有する場合もあります。Clioは、各洞察がユーザーと入力の意味のある多様性を表すことを要求する慎重な集約閾値を実装しており、これにより個人の特定の使用パターンの識別を防いでいます。
当社の研究論文で説明されているように、当社は安全システムを改善するためにClioの異なるバージョンも使用しています。安全性に焦点を当てたClioの実行結果は、個別のアカウントに関連付けることができます。これらの結果を閲覧できる人を少数の認可されたスタッフに制限するため、厳格なアクセス制御を設けています。