Anthropic đã công bố một thay đổi đáng kể trong chính sách bảo mật của mình, tiết lộ rằng Claude giờ đây sẽ huấn luyện trên các cuộc trò chuyện và phiên làm việc lập trình của người dùng trừ khi người dùng chủ động từ chối tham gia trước ngày 28 tháng 9 năm 2025. Điều này đánh dấu sự thay đổi mạnh mẽ so với cam kết bảo mật trước đây của công ty, vốn là yếu tố khác biệt chính so với các đối thủ cạnh tranh như OpenAI .
Thay đổi này ảnh hưởng đến người dùng các gói Claude Free , Pro (20 đô la Mỹ/tháng) và Max (200 đô la Mỹ/tháng), bao gồm cả các phiên Claude Code . Tuy nhiên, khách hàng doanh nghiệp sử dụng Claude for Work , Claude Gov , Claude for Education và người dùng API vẫn được bảo vệ theo các điều khoản thương mại riêng biệt duy trì tiêu chuẩn xử lý dữ liệu nghiêm ngặt hơn.
Các Gói Dịch Vụ và Giá Cả Bị Ảnh Hưởng:
- Claude Free: $0 USD/tháng
- Claude Pro: $20 USD/tháng
- Claude Max: $200 USD/tháng
- Phiên Claude Code được bao gồm trong tất cả các gói bị ảnh hưởng
Dịch Vụ Được Bảo Vệ (Không Bị Ảnh Hưởng):
- Claude for Work (gói Team và Enterprise)
- Claude Gov
- Claude for Education
- Sử dụng API (bao gồm các dịch vụ bên thứ ba như Amazon Bedrock và Google Cloud Vertex AI)
![]() |
---|
Ảnh chụp màn hình bài viết chính thức có tiêu đề "Updates to Consumer Terms and Privacy Policy" của Anthropic , làm nổi bật những thay đổi quan trọng trong chính sách bảo mật liên quan đến dữ liệu người dùng |
Mối Quan Ngại Về Dark Pattern và Vấn Đề Giao Diện Người Dùng
Cộng đồng đã nêu lên những mối quan ngại đáng kể về cách Anthropic triển khai thay đổi này. Người dùng báo cáo về các yếu tố giao diện gây nhầm lẫn, bao gồm các nút chuyển đổi xuất hiện màu xám ở cả trạng thái bật và tắt trên trang web, khiến việc xác định cài đặt hiện tại trở nên khó khăn. Cửa sổ thông báo hiển thị nút Chấp Nhận một cách nổi bật trong khi ẩn nút từ chối tham gia trong văn bản nhỏ hơn bên dưới, với nút chuyển đổi mặc định ở trạng thái Bật.
Nhiều người dùng mô tả việc vô tình đồng ý chia sẻ dữ liệu do thiết kế giao diện không rõ ràng. Việc đặt các điều khiển bảo mật trong một bản cập nhật điều khoản và điều kiện đã bị chỉ trích là cố ý che giấu một lựa chọn quan trọng mà lẽ ra phải được đặt ở vị trí trung tâm và nổi bật.
Việc Gia Hạn Lưu Trữ Dữ Liệu Làm Tăng Thêm Mối Quan Ngại Về Bảo Mật
Ngoài quyền huấn luyện, Anthropic đang gia hạn việc lưu trữ dữ liệu từ 30 ngày lên năm năm đối với người dùng cho phép dữ liệu của họ được sử dụng để huấn luyện mô hình. Thời gian lưu trữ kéo dài này áp dụng ngay cả với những người dùng sau đó thay đổi ý kiến về việc chia sẻ dữ liệu, vì các cuộc trò chuyện sẽ vẫn còn trong hệ thống của Anthropic trong toàn bộ thời gian năm năm.
Cộng đồng đã bày tỏ sự báo động đặc biệt về chính sách lưu trữ này, lưu ý rằng năm năm cuộc trò chuyện cá nhân đại diện cho một kho báu khổng lồ đối với các hacker tiềm năng hoặc yêu cầu của chính phủ. Người dùng từ chối tham gia huấn luyện sẽ tiếp tục với thời gian lưu trữ 30 ngày hiện tại, nhưng nhiều người cảm thấy tùy chọn năm năm tạo ra những rủi ro bảo mật không cần thiết.
Lịch trình chính:
- Từ nay đến ngày 28 tháng 9 năm 2025: Người dùng có thể từ chối tham gia thông qua thông báo popup hoặc cài đặt quyền riêng tư
- Ngày 28 tháng 9 năm 2025: Hạn chót để đưa ra lựa chọn - người dùng phải chọn tiếp tục sử dụng Claude
- Lưu trữ dữ liệu: 5 năm đối với người tham gia huấn luyện, 30 ngày đối với người dùng từ chối tham gia
- Phạm vi áp dụng: Chỉ áp dụng cho các cuộc trò chuyện mới hoặc được tiếp tục và phiên lập trình sau khi chấp nhận điều khoản mới
Tác Động Đến Các Nhà Nghiên Cứu và Chuyên Gia
Thay đổi chính sách đã làm dấy lên mối quan ngại trong số các chuyên gia sử dụng Claude cho công việc nhạy cảm. Các nhà nghiên cứu lo lắng về việc các ý tưởng chưa được công bố có thể vô tình được chia sẻ với người dùng khác thông qua quá trình huấn luyện. Các nhà nghiên cứu toán học và nhà phát triển đã bày tỏ mối quan ngại đặc biệt về việc các kỹ thuật độc quyền hoặc phương pháp tiếp cận mới lạ được tích hợp vào mô hình và có thể được gợi ý cho các đối thủ cạnh tranh.
Tình huống mà tôi quan ngại là Claude học được những ý tưởng nghiên cứu chưa được công bố từ tôi khi chúng tôi trò chuyện và lập trình. Claude sau đó gợi ý những ý tưởng tương tự cho người khác, người mà một cách chính đáng tin rằng đây giờ là công việc của họ.
Mối quan ngại này mở rộng đến người dùng doanh nghiệp có thể vô tình chia sẻ bí mật thương mại hoặc thông tin độc quyền thông qua các tương tác của họ với Claude Code , mặc dù tin rằng các cuộc trò chuyện của họ là riêng tư.
Phản Ứng Của Cộng Đồng và Sự Xói Mòn Lòng Tin
Thông báo này đã kích hoạt sự thất vọng rộng rãi trong số những người dùng đã cụ thể chọn Anthropic thay vì các đối thủ cạnh tranh do cách tiếp cận tập trung vào bảo mật của công ty. Nhiều người đăng ký lâu năm đang hủy tài khoản của họ, coi đây là sự vi phạm lòng tin cơ bản làm suy yếu vị thế của Anthropic như một công ty AI có đạo đức.
Thời điểm của thay đổi này, diễn ra khi các công ty AI đối mặt với áp lực ngày càng tăng để tìm kiếm các mô hình kinh doanh bền vững, đã khiến nhiều người coi đây là một bước không thể tránh khỏi trong quá trình enshittification ảnh hưởng đến hầu hết các công ty công nghệ được tài trợ bởi vốn đầu tư mạo hiểm khi họ trưởng thành.
Người dùng có thể từ chối tham gia bằng cách truy cập cài đặt bảo mật Claude của họ hoặc thông qua cửa sổ thông báo xuất hiện khi mở ứng dụng. Tuy nhiên, thiệt hại đối với danh tiếng của Anthropic như một lựa chọn thay thế có ý thức bảo mật có thể khó khắc phục hơn việc thay đổi một nút chuyển đổi.
Tham khảo: Updates to Consumer Terms and Privacy Policy