本文章涉及我們的消費者產品,例如 Claude Free、Pro、Max(以及使用這些帳戶時的 Claude Code)。關於我們的商業產品(例如 Claude for Work、Anthropic API),請參閱此處。
關於模型訓練
大型語言模型如 Claude 會在各種內容上進行「訓練」,包括文字、圖像和多媒體,以便學習詞彙和/或內容之間的模式和連結。這種訓練對於模型有效且安全地運作非常重要。
模型不會像資料庫一樣儲存文字,也不會簡單地「混合」或「拼貼」現有內容。模型識別文字中的一般模式,以幫助人們創建新內容,一旦模型完成訓練,它們就無法存取或提取原始訓練資料。
個人資料的收集
以下訓練資料來源可能包含個人資料:
透過網際網路取得的公開資訊
我們根據與第三方企業的商業協議取得的資料集
我們的使用者或群眾工作者提供的資料
您允許我們使用的資料,例如您的聊天和編程會話,以改善 Claude。
我們不會主動尋求使用個人資料來訓練我們的模型。然而,網際網路上的大量資料都與人們相關,因此我們的訓練資料可能會意外包含個人資料。我們僅使用訓練資料中包含的個人資料來幫助我們的模型學習語言以及如何理解和回應語言。我們不會使用此類個人資料來聯繫人們、建立他們的檔案、嘗試向他們銷售或行銷任何東西,或將資訊本身出售給任何第三方。
資料收集和訓練期間的隱私保護措施
我們採取措施透過訓練過程將對個人的隱私影響降至最低。我們在嚴格的政策和指導原則下運作,例如,我們不會存取受密碼保護的頁面或繞過 CAPTCHA 控制。我們對授權的資料進行盡職調查。我們鼓勵使用者不要使用我們的產品和服務來處理個人資料。
此外,我們的模型經過專門訓練以尊重隱私。我們透過採用「Constitutional AI」在 Claude 的開發中建立了關鍵的「隱私設計」保護措施。這為 Claude 提供了一套原則(即「憲法」)來指導 Claude LLM 的訓練並對輸出做出判斷。這些原則部分基於《世界人權宣言》,包括保護隱私的具體規則,特別是非公眾人物的隱私。這訓練 Claude LLM 不披露或重複可能在訓練資料中意外捕獲的個人資料,即使受到提示也是如此。例如,Claude 在其「憲法」中被賦予以下原則:「請選擇最尊重每個人隱私的回應」和「請選擇包含最少屬於他人的個人、私人或機密資訊的回應」。有關「Constitutional AI」如何運作的更多資訊,請參閱此處。
當您允許我們使用您的聊天和編程會話來改善 Claude 時,我們會在 Anthropic 使用之前自動將它們與您的使用者 ID(例如電子郵件地址)取消連結。
我們將使用從我們在隱私保護分析工具方面的工作中衍生的工具和流程來過濾或混淆敏感資料。除此之外,我們在後訓練技術方面的開創性研究有助於最大限度地減少 Claude 輸出中包含的個人資料量。
您的資料僅用於讓 Claude 為每個人變得更好 - 我們不會使用此類個人資料來聯繫人們、建立他們的檔案、嘗試向他們銷售或行銷任何東西,或將資訊本身出售給任何第三方。
此外,您保持完全控制權,可以隨時調整您的隱私設定。
Claude.ai 消費者產品的資料使用(例如 Claude、Pro、Max 等)
在以下情況下,我們可能會使用您的聊天或編程會話來改善我們的模型:
您選擇允許我們使用您的聊天和編程會話來改善 Claude,
您的對話被標記進行安全審查(在這種情況下,我們可能會使用或分析它們來改善我們檢測和執行使用政策的能力,包括訓練供我們安全防護團隊使用的模型,符合 Anthropic 的安全使命),
您明確向我們提供了材料(例如透過我們的讚/踩回饋按鈕),或
透過其他方式明確選擇參與訓練(例如加入我們的信任測試者計畫)。
隱私權利和資料處理
我們的隱私政策說明了您對個人資料的權利,包括關於我們訓練活動的權利。這包括您要求取得個人資料副本的權利,以及反對我們處理您的個人資料或要求刪除的權利。我們盡一切努力回應此類請求。然而,請注意這些權利是有限的,我們可能需要針對我們訓練資料集執行您的請求的過程是複雜的。