Chính sách đào tạo dữ liệu mới của Anthropic gây lo ngại về quyền riêng tư với việc lưu trữ 5 năm và mặc định tham gia

Nhóm Cộng đồng BigGo
Chính sách đào tạo dữ liệu mới của Anthropic gây lo ngại về quyền riêng tư với việc lưu trữ 5 năm và mặc định tham gia

Anthropic đã giới thiệu những thay đổi đáng kể trong chính sách sử dụng dữ liệu cho người dùng Claude , cho phép công ty đào tạo các mô hình AI tương lai bằng cách sử dụng các cuộc hội thoại từ người đăng ký gói Free, Pro và Max. Bản cập nhật này đã tạo ra nhiều thảo luận trong cộng đồng công nghệ, với người dùng nêu lên mối lo ngại về tác động đến quyền riêng tư và việc thương mại hóa công việc trí tuệ của họ.

Chính sách mới yêu cầu người dùng phải đưa ra lựa chọn tích cực về việc liệu dữ liệu của họ có thể được sử dụng để đào tạo mô hình hay không, nhưng việc triển khai đã bị chỉ trích vì đặt tùy chọn tham gia làm lựa chọn mặc định rõ ràng. Người dùng phải quyết định trước ngày 28 tháng 9 năm 2025, nếu không họ sẽ không thể tiếp tục sử dụng Claude .

Lịch trình Chính sách

  • Người dùng hiện tại có thời hạn đến ngày 28 tháng 9 năm 2025 để đưa ra lựa chọn của họ
  • Các thay đổi chỉ áp dụng cho các cuộc trò chuyện và phiên lập trình mới hoặc được tiếp tục
  • Các cuộc trò chuyện không hoạt động trước đó sẽ không được sử dụng để huấn luyện
Hình ảnh này đại diện cho thông báo chính thức từ Anthropic về các cập nhật quan trọng đối với chính sách sử dụng dữ liệu ảnh hưởng đến người dùng Claude
Hình ảnh này đại diện cho thông báo chính thức từ Anthropic về các cập nhật quan trọng đối với chính sách sử dụng dữ liệu ảnh hưởng đến người dùng Claude

Thiết kế giao diện người dùng gây nhầm lẫn khiến người dùng bực bội

Một trong những khiếu nại trực tiếp nhất tập trung vào thiết kế công tắc chuyển đổi mơ hồ trong bảng cài đặt của Claude . Người dùng báo cáo khó khăn trong việc xác định liệu họ đã chọn tham gia hay từ chối chia sẻ dữ liệu do các chỉ báo hình ảnh không rõ ràng. Thiết kế thanh trượt đã được so sánh một cách không thuận lợi với các giao diện hộp kiểm đơn giản hơn có thể loại bỏ sự nhầm lẫn về trạng thái cài đặt hiện tại.

Sự nhầm lẫn về giao diện người dùng này đặc biệt đáng lo ngại vì nhiều người dùng có thể vô tình chia sẻ dữ liệu của họ do sự mơ hồ của giao diện thay vì đưa ra lựa chọn có thông tin.

Thời gian lưu trữ dữ liệu kéo dài làm tăng mức độ nghiêm trọng

Có lẽ thay đổi quan trọng nhất là việc kéo dài thời gian lưu trữ dữ liệu từ 30 ngày lên năm năm đối với những người dùng cho phép dữ liệu của họ được sử dụng để đào tạo. Anthropic biện minh cho khoảng thời gian kéo dài này bằng cách giải thích rằng chu kỳ phát triển AI kéo dài từ 18 đến 24 tháng, và việc lưu trữ dữ liệu lâu hơn giúp tạo ra các mô hình nhất quán hơn và bộ phân loại an toàn tốt hơn.

Tuy nhiên, sự gia tăng đáng kể về thời gian lưu trữ này đã khuếch đại mối lo ngại về quyền riêng tư, đặc biệt khi kết hợp với cài đặt mặc định có vẻ như là tham gia.

So sánh thời gian lưu trữ dữ liệu

  • Với việc đồng ý huấn luyện: Thời gian lưu trữ 5 năm
  • Không đồng ý huấn luyện: Thời gian lưu trữ 30 ngày (chính sách hiện tại)
  • Các cuộc hội thoại đã xóa: Không được sử dụng để huấn luyện trong tương lai bất kể cài đặt nào

Cộng đồng đặt câu hỏi về động cơ chia sẻ dữ liệu

Các thành viên cộng đồng công nghệ đang bối rối về lý do tại sao người dùng lại tự nguyện chia sẻ dữ liệu của họ cho mục đích đào tạo. Một số suy đoán rằng sự mệt mỏi chung về quyền riêng tư, tương tự như sự kiệt sức với popup cookie, khiến người dùng chấp nhận các điều khoản này mà không cân nhắc cẩn thận. Những người khác cho rằng chỉ có người dùng liên kết với công ty hoặc những người trong vai trò đảm bảo chất lượng mới có ý định chọn tham gia.

Tôi không hiểu tại sao bạn lại chọn tham gia chia sẻ dữ liệu của mình. Có phải vì bạn tin rằng điều đó sẽ giúp cải thiện mô hình và bạn sẽ được hưởng lợi từ nó? Hay là điều gì đó mang tính lợi tha?

Cuộc thảo luận tiết lộ mối lo ngại rộng lớn hơn về việc thương mại hóa công việc trí tuệ, với một số người dùng rút ra những điểm tương đồng với cách các công ty AI trước đây đã sử dụng tài liệu có bản quyền để đào tạo mà không có sự cho phép rõ ràng.

Phạm vi hạn chế cung cấp một số bảo vệ

Các thay đổi chính sách chỉ áp dụng cho các gói dành cho người tiêu dùng và không ảnh hưởng đến khách hàng doanh nghiệp sử dụng Claude for Work , truy cập API, hoặc các dịch vụ chính phủ và giáo dục. Sự phân biệt này cho thấy Anthropic nhận ra kỳ vọng cao hơn về quyền riêng tư của người dùng doanh nghiệp và tổ chức.

Người dùng vẫn có thể xóa các cuộc hội thoại riêng lẻ để ngăn chặn việc sử dụng chúng trong đào tạo, và những người thay đổi ý kiến có thể từ chối bất cứ lúc nào, mặc dù dữ liệu đã thu thập trước đó vẫn có thể được sử dụng trong các quy trình đào tạo đang diễn ra.

Phạm vi dịch vụ Bị ảnh hưởng bởi chính sách mới:

  • Các gói Claude Free, Pro và Max
  • Claude Code từ các tài khoản liên kết

Không bị ảnh hưởng bởi chính sách mới:

  • Claude for Work (gói Team và Enterprise)
  • Sử dụng API (bao gồm Amazon Bedrock, Google Cloud Vertex AI)
  • Claude Gov và Claude for Education

Kết luận

Mặc dù Anthropic xứng đáng được ghi nhận vì yêu cầu sự đồng ý rõ ràng của người dùng thay vì thực hiện các thay đổi một cách im lặng, việc thực thi đã đặt ra câu hỏi về việc liệu công ty có thực sự ưu tiên quyền riêng tư của người dùng hay chỉ đơn giản đáp ứng các yêu cầu pháp lý tối thiểu. Sự kết hợp của thiết kế giao diện người dùng gây nhầm lẫn, thời gian lưu trữ kéo dài, và cài đặt mặc định có vẻ như tham gia đã khiến nhiều người dùng cảm thấy rằng lợi ích quyền riêng tư của họ là thứ yếu so với mục tiêu thu thập dữ liệu của công ty.

Khi hạn chót tháng 9 năm 2025 đến gần, người dùng sẽ cần cân nhắc cẩn thận liệu lợi ích tiềm năng của các mô hình AI được cải thiện có vượt qua mối lo ngại về quyền riêng tư của họ về việc lưu trữ dữ liệu dài hạn và sử dụng đào tạo hay không.

Tham khảo: Updates to Consumer Terms and Privacy Policy