跳至主要內容

您如何在模型訓練中使用個人資料?

昨日已更新

本文是關於我們的消費者產品(如Claude Free、Claude Pro)。有關我們的商業產品(如Claude for Work、Anthropic API),請參見此處

關於模型訓練

像Claude這樣的大型語言模型是在各種內容(如文本、圖像和多媒體)上"訓練"的,以便它們能夠學習單詞和/或內容之間的模式和聯繫。這種訓練對於模型的有效和安全運行至關重要。

模型不像數據庫那樣存儲文本,也不是簡單地"拼湊"或"拼貼"現有內容。模型識別文本中的一般模式,以幫助人們創建新內容,一旦模型訓練完成,它們就無法訪問或提取原始訓練數據。

個人數據的收集

以下三種訓練數據來源可能包含個人數據:

  1. 通過互聯網公開可用的信息

  2. 我們通過與第三方企業的商業協議獲得的數據集

  3. 我們的用戶或眾包工作者提供的數據

我們並不主動收集個人數據來訓練我們的模型。然而,互聯網上大量的數據與人有關,所以我們的訓練數據可能偶然包含個人數據。

我們只使用訓練數據中包含的個人數據來幫助我們的模型學習語言以及如何理解和回應語言。我們不會使用這些個人數據來聯繫人們,建立他們的檔案,試圖向他們銷售或推銷任何東西,或將信息本身出售給任何第三方。

數據收集和訓練過程中的隱私保護措施

我們採取措施來最大程度地減少訓練過程對個人隱私的影響。我們遵循嚴格的政策和指導方針,例如我們不訪問受密碼保護的頁面或繞過CAPTCHA控制。我們對我們獲得許可的數據進行盡職調查。我們也鼓勵我們的用戶不要使用我們的產品和服務來處理個人數據。

此外,我們的模型經過專門訓練以尊重隱私。我們通過採用"憲法人工智能"(Constitutional AI)將關鍵的"隱私設計"保護措施納入Claude的開發中。這為Claude提供了一套原則(即"憲法")來指導Claude語言模型的訓練並做出輸出判斷。這些原則部分基於《世界人權宣言》,包括保護隱私的具體規則,特別是非公眾人物的隱私。這訓練Claude語言模型不披露或重複可能在訓練數據中偶然捕獲的個人數據,即使被提示也不會。例如,Claude被賦予以下原則作為其"憲法"的一部分:"請選擇最尊重每個人隱私的回應"和"請選擇包含最少屬於他人的個人、私密或機密信息的回應"。有關"憲法人工智能"如何運作的更多信息,請參見此處

Claude.ai消費者產品(如免費Claude.ai、Claude Pro計劃)的數據使用

我們不會使用您的輸入或輸出來訓練我們的生成模型,除非:(1) 您的對話被標記為信任與安全審查(在這種情況下,我們可能會使用或分析它們來改善我們檢測和執行使用政策的能力,包括為我們的信任和安全團隊訓練模型,與Anthropic的安全使命一致),或 (2) 您已明確向我們報告了這些材料(例如通過我們的反饋機制),或 (3) 通過其他方式明確選擇參與訓練。

隱私權和數據處理

我們的隱私政策解釋了您對個人數據的權利,包括與我們的訓練活動相關的權利。這包括您要求獲取個人數據副本的權利,以及反對我們處理您的個人數據或要求刪除的權利。我們盡最大努力回應此類請求。但是,請注意,這些權利是有限的,我們可能需要採取行動處理您關於我們訓練數據集的請求的過程是複雜的。

要了解更多信息,或如果您想知道如何就隱私相關主題與我們聯繫,請參見我們的信任中心隱私政策

請注意,隱私政策不適用於Anthropic作為數據處理者代表使用Anthropic商業服務的商業客戶處理個人數據的情況。在這些情況下,商業客戶是控制者,您可以查看他們的政策以了解更多關於他們如何處理您的個人數據的信息。

是否回答了您的問題?