Anthropic은 사용자 프라이버시와 민감한 정보의 기밀성을 엄격하게 유지하면서 AI 시스템의 실제 영향과 당사 제품의 사용 패턴에 대한 통찰을 얻기 위해 집계된 프라이버시 보호 데이터 분석을 수행합니다. 당사 접근 방식의 한 예는 개인 프라이버시나 고객 기밀성을 손상시키지 않으면서 중요한 트렌드와 행동을 이해할 수 있게 해주는 시스템인 Clio입니다.
연구 목적이나 당사 제품이 전체적으로 어떻게 사용되고 있는지 분석하기 위해 Clio를 사용할 때, 이 시스템은:
정보를 자동으로 익명화하고 집계하여, 개인적이거나 민감한 세부사항은 제외하고 일반적인 패턴과 트렌드만 추출합니다
최소 집계 임계값과 자동 검증을 포함한 여러 프라이버시 보호 장치를 적용하여 결과가 개인이나 소규모 고객 그룹에 대한 정보를 노출하지 않도록 보장합니다
Anthropic 직원들이 원시 사용자 대화나 고객별 데이터에 접근할 수 없도록 합니다
모든 통찰을 광범위하고 집계된 패턴에만 집중하며, 특정 개인이나 고객의 행동은 절대 분석하지 않습니다
당사는 이러한 목적으로 사용될 때 Clio의 출력에 식별 가능한 개인 정보가 포함되지 않음을 검증하기 위해 광범위한 테스트, 감사 및 벤치마킹을 수행했습니다. Clio의 아키텍처와 당사의 엄격한 프라이버시 평가에 대한 자세한 정보는 당사의 연구 논문을 참조하시기 바랍니다.
당사의 사명을 더욱 발전시키기 위해, 당사는 또한 AI 시스템이 어떻게 사용되고 있는지에 대한 집계된 프라이버시 보호 통찰을 외부 청중이나 일반 대중과 공유할 수도 있습니다. Clio는 각 통찰이 의미 있는 사용자와 입력의 다양성을 나타내도록 요구하는 신중한 집계 임계값을 구현하여 개인의 특정 사용 패턴 식별을 방지합니다.
당사의 연구 논문에서 설명한 바와 같이, 당사는 또한 안전 시스템을 개선하기 위해 Clio의 다른 버전을 사용합니다. 안전 중심 Clio 실행의 결과는 개별 계정으로 다시 연결될 수 있습니다. 당사는 이러한 결과를 볼 수 있는 사람을 소수의 승인된 직원으로 제한하는 엄격한 접근 제어를 시행하고 있습니다.