跳至主要內容

您如何在模型訓練中使用個人資料?

昨日已更新

本文是關於我們的商業產品(如Claude for Work、Anthropic API)。有關我們的消費者產品(如Claude Free、Claude Pro),請參見這裡

關於模型訓練

像Claude這樣的大型語言模型是在各種內容上"訓練"的,如文本、圖像和多媒體,以便它們能夠學習單詞和/或內容之間的模式和聯繫。這種訓練對於模型的有效和安全運行非常重要。

模型不像數據庫那樣存儲文本,也不是簡單地"拼湊"或"拼貼"現有內容。模型識別文本中的一般模式,以幫助人們創建新的內容,一旦模型訓練完成,它們就無法訪問或提取原始訓練數據。

個人數據的收集

以下三種訓練數據來源可能包含個人數據:

  1. 通過互聯網公開可用的信息

  2. 我們通過與第三方企業的商業協議獲得的數據集

  3. 我們的用戶或眾包工作者提供的數據

我們並不主動收集個人數據來訓練我們的模型。然而,互聯網上大量的數據與人有關,所以我們的訓練數據可能偶然包含個人數據。

我們只使用訓練數據中包含的個人數據來幫助我們的模型學習語言以及如何理解和回應語言。我們不會使用這些個人數據來聯繫人們,建立他們的檔案,試圖向他們銷售或推銷任何東西,或將信息本身出售給任何第三方。

數據收集和訓練過程中的隱私保護措施

我們採取措施以最大程度地減少訓練過程對個人隱私的影響。我們遵循嚴格的政策和指導方針,例如我們不訪問受密碼保護的頁面或繞過CAPTCHA控制。我們對我們授權的數據進行盡職調查。我們鼓勵我們的用戶不要使用我們的產品和服務來處理個人數據。

此外,我們的模型經過專門訓練以尊重隱私。我們通過採用"憲法AI"將關鍵的"隱私設計"保護措施內置到Claude的開發中。這為Claude提供了一套原則(即"憲法")來指導Claude LLM的訓練並做出關於輸出的判斷。這些原則部分基於《世界人權宣言》,包括保護隱私的具體規則,特別是非公眾人物的隱私。這訓練Claude LLM不披露或重複可能在訓練數據中偶然捕獲的個人數據,即使被提示也不會。例如,Claude被賦予以下原則作為其"憲法"的一部分:"請選擇最尊重每個人隱私的回應"和"請選擇包含最少屬於他人的個人、私密或機密信息的回應"。有關"憲法AI"如何工作的更多信息,請參見這裡

Anthropic商業產品的數據使用(例如Anthropic API和控制台、Claude for Work(團隊和企業計劃))

默認情況下,我們不會使用您的輸入或輸出來訓練我們的模型。

如果您明確向我們報告材料(例如通過我們的反饋機制),或以其他方式明確選擇參與訓練,那麼我們可能會使用這些材料來訓練我們的模型。

要了解更多關於您使用商業產品的信息,或如果您想知道如何就隱私相關話題聯繫我們,請參見我們的信任中心商業條款

隱私權和數據處理

我們的隱私政策解釋了您對個人數據的權利,包括與我們的訓練活動相關的權利。這包括您要求獲取個人數據副本的權利,以及反對我們處理您的個人數據或要求刪除的權利。我們盡最大努力回應此類請求。但是,請注意,這些權利是有限的,我們可能需要採取行動處理您關於我們訓練數據集的請求的過程是複雜的。

要了解更多信息,或如果您想知道如何就隱私相關話題聯繫我們,請參見我們的信任中心隱私政策

請注意,當Anthropic作為數據處理者,代表使用Anthropic商業服務的商業客戶處理個人數據時,隱私政策不適用。在這些情況下,商業客戶是控制者,您可以查看他們的政策以了解更多關於他們如何處理您的個人數據的信息。

是否回答了您的問題?