Anthropic thay đổi chính sách dữ liệu Claude: Cuộc trò chuyện của người dùng hiện mặc định trở thành dữ liệu huấn luyện

Nhóm Cộng đồng BigGo
Anthropic thay đổi chính sách dữ liệu Claude: Cuộc trò chuyện của người dùng hiện mặc định trở thành dữ liệu huấn luyện

Anthropic đã âm thầm thực hiện một thay đổi quan trọng đối với chính sách sử dụng dữ liệu của Claude, chuyển từ hệ thống chọn tham gia sang hệ thống chọn không tham gia để sử dụng các cuộc trò chuyện của khách hàng làm dữ liệu huấn luyện. Thay đổi này đã gây ra cuộc thảo luận rộng rãi trong cộng đồng công nghệ về các cài đặt mặc định về quyền riêng tư và bản chất đang phát triển của các thỏa thuận dịch vụ AI.

Trước đây, Claude hoạt động theo cách tiếp cận ưu tiên quyền riêng tư, trong đó các cuộc trò chuyện của người dùng chỉ được sử dụng để huấn luyện mô hình khi người dùng cung cấp phản hồi một cách rõ ràng thông qua việc đánh giá bằng nút thích hoặc không thích. Theo chính sách mới, tất cả dữ liệu trò chuyện của người tiêu dùng sẽ trở thành tài liệu huấn luyện tiềm năng trừ khi người dùng chủ động điều hướng đến cài đặt quyền riêng tư của họ để chọn không tham gia.

So sánh Chính sách

Khía cạnh Chính sách Trước đây Chính sách Mới
Cài đặt Mặc định Chỉ tham gia khi có phản hồi rõ ràng Tự động tham gia (mặc định cho phép huấn luyện)
Lưu trữ Dữ liệu Giới hạn trong các phiên phản hồi Lên đến 5 năm cho người dùng đã tham gia
Bảo vệ Doanh nghiệp Được bảo vệ Vẫn được bảo vệ
Bảo vệ Người tiêu dùng Được bảo vệ theo mặc định Phải tự tay từ chối tham gia

Tình trạng khó xử về mặc định và trải nghiệm người dùng

Việc triển khai thay đổi này đã trở thành điểm tranh cãi giữa các người dùng. Trong khi Anthropic tuyên bố rằng người dùng phải đưa ra lựa chọn tích cực, các thành viên cộng đồng báo cáo rằng họ trải nghiệm những gì có vẻ như là một mô hình tối trong giao diện người dùng. Tùy chọn chọn tham gia chia sẻ dữ liệu được ưu tiên tập trung mặc định khi người dùng được nhắc, và một số người dùng báo cáo rằng họ đã bỏ lỡ hoàn toàn lựa chọn này do các cửa sổ bật lên xuất hiện không đúng thời điểm hoặc thông điệp không rõ ràng.

Lời nhắc sử dụng cụm từ Bạn có thể giúp cải thiện Claude mà không truyền đạt rõ ràng rằng việc chấp nhận có nghĩa là các cuộc trò chuyện cá nhân sẽ trở thành dữ liệu huấn luyện. Điều này đã dẫn đến lo ngại rằng nhiều người dùng có thể vô tình đồng ý chia sẻ dữ liệu mà không hiểu đầy đủ các tác động.

Cách đối xử khác biệt giữa doanh nghiệp và người tiêu dùng

Một khía cạnh đáng chú ý của thay đổi chính sách này là việc áp dụng có chọn lọc. Khách hàng doanh nghiệp và tập đoàn vẫn được bảo vệ hoàn toàn khỏi thay đổi này - dữ liệu của họ tiếp tục được loại trừ khỏi các quy trình huấn luyện. Sự phân biệt này làm nổi bật các đề xuất giá trị khác nhau mà Anthropic nhìn thấy trong các phân khúc khách hàng của mình, với các khách hàng doanh nghiệp trả phí nhận được sự bảo vệ quyền riêng tư mạnh mẽ hơn so với người tiêu dùng cá nhân.

Lo ngại về lưu trữ dữ liệu và bảo mật

Theo chính sách mới, người dùng chọn tham gia chia sẻ dữ liệu sẽ có các cuộc trò chuyện của họ được lưu giữ lên đến năm năm. Thời gian lưu trữ kéo dài này đã làm tăng thêm lo ngại về quyền riêng tư, đặc biệt là xét đến thực tế kỹ thuật về cách thức hoạt động của các mô hình ngôn ngữ. Các cuộc thảo luận cộng đồng tiết lộ rằng dữ liệu huấn luyện có thể được trích xuất từ các mô hình AI thông qua các lời nhắc được tạo ra một cách cẩn thận, khiến bất kỳ cuộc trò chuyện được chia sẻ nào đều có khả năng được phục hồi bởi những người dùng khác.

Bất cứ thứ gì mà một LLM huấn luyện đều nên được coi là công khai vì LLM có thể tái tạo nó một cách nguyên văn.

Lỗ hổng kỹ thuật này có nghĩa là thông tin nhạy cảm được chia sẻ với Claude về mặt lý thuyết có thể trở nên có thể truy cập được đối với những người dùng khác, ngay cả khi gián tiếp thông qua các phản hồi của mô hình đối với các truy vấn tương tự.

Những Thay Đổi Chính Về Cài Đặt Quyền Riêng Tư

  • Sử Dụng Dữ Liệu Huấn Luyện: Hiện tại mặc định "bật" cho người dùng mới và hiện tại
  • Thời Gian Lưu Trữ: Gia hạn tối đa 5 năm cho người dùng vẫn chọn tham gia
  • Phạm Vi: Áp dụng cho tất cả các phiên chat và coding của người tiêu dùng được khởi tạo sau khi đồng ý
  • Miễn Trừ Doanh Nghiệp: Các tài khoản doanh nghiệp và enterprise vẫn không bị ảnh hưởng
  • Vị Trí Từ Chối: Menu cài đặt quyền riêng tư (yêu cầu điều hướng thủ công)

Tác động rộng hơn đến ngành công nghiệp

Sự thay đổi chính sách này phản ánh áp lực thị trường rộng hơn mà các công ty AI đang phải đối mặt. Bối cảnh cạnh tranh đòi hỏi cải tiến mô hình liên tục, điều này đòi hỏi lượng lớn dữ liệu huấn luyện đa dạng. Các công ty ban đầu định vị mình là có ý thức về quyền riêng tư đang dần áp dụng các thực hành tiêu chuẩn ngành ưu tiên thu thập dữ liệu hơn quyền riêng tư của người dùng.

Thay đổi này cũng chứng minh cách các dịch vụ AI khác biệt với các sản phẩm phần mềm truyền thống. Các nền tảng này là những dịch vụ đang phát triển nơi các điều khoản cơ bản có thể thay đổi trong khi người dùng đang tích cực tham gia, khiến việc người dùng thường xuyên xem xét cài đặt quyền riêng tư và thỏa thuận dịch vụ của họ trở nên quan trọng.

Phản ứng của cộng đồng cho thấy đây sẽ không phải là thay đổi cuối cùng như vậy trong ngành AI, khi các công ty cân bằng quyền riêng tư của người dùng với nhu cầu cạnh tranh về dữ liệu huấn luyện để cải thiện các mô hình của họ.

Tham khảo: The Default Trap: Why Anthropic's Data Policy Change Matters