Anthropic đang thực hiện những thay đổi đáng kể trong cách xử lý dữ liệu người dùng đồng thời công bố nghiên cứu tiết lộ những xu hướng đáng lo ngại trong việc sử dụng AI giáo dục. Công ty đứng sau chatbot Claude đang chuyển từ cách tiếp cận tập trung vào bảo mật trước đây và giờ đây sẽ bắt đầu huấn luyện các mô hình AI của mình trên các cuộc trò chuyện của người dùng, đánh dấu sự thay đổi đáng chú ý so với cam kết bảo vệ dữ liệu trước đó.
Thay Đổi Chính Sách Bảo Mật Ảnh Hưởng Đến Tất Cả Người Dùng Claude
Anthropic đã thông báo sẽ bắt đầu thu thập các cuộc trò chuyện của người dùng để huấn luyện các phiên bản tương lai của Claude , từ bỏ chính sách trước đây không sử dụng dữ liệu khách hàng để huấn luyện mô hình. Thay đổi này đại diện cho sự thay đổi cơ bản trong cách tiếp cận quyền riêng tư người dùng của công ty. Trước đây, Anthropic chỉ thu thập dữ liệu khi người dùng báo cáo tài liệu một cách rõ ràng hoặc tham gia vào các chương trình huấn luyện.
Chính sách mới có hiệu lực vào ngày 28 tháng 9 năm 2025, cho người dùng hiện tại một khoảng thời gian hạn chế để đưa ra lựa chọn. Người dùng mới sẽ gặp quyết định tham gia trong quá trình thiết lập tài khoản, trong khi người dùng hiện tại sẽ thấy popup xin phép khi đăng nhập lần tiếp theo. Công ty đã đặt tùy chọn mặc định để cho phép thu thập dữ liệu, có nghĩa là người dùng phải chủ động chọn bảo vệ quyền riêng tư của họ.
Những Thay Đổi Chính Sách Bảo Mật Chủ Chốt
- Chính Sách Trước Đây: Không thu thập dữ liệu người dùng để huấn luyện trừ khi được báo cáo rõ ràng hoặc người dùng chọn tham gia
- Chính Sách Mới: Mặc định chọn tham gia thu thập dữ liệu bắt đầu từ ngày 28 tháng 9 năm 2025
- Dữ Liệu Bị Ảnh Hưởng: Các cuộc trò chuyện mới và các phiên trước đây được tái kích hoạt
- Quyền Kiểm Soát Của Người Dùng: Có nút chuyển đổi trong Cài Đặt Bảo Mật để chọn không tham gia
- Bảo Vệ Dữ Liệu: Quy trình tự động để ẩn thông tin nhạy cảm, không bán cho bên thứ ba
Nghiên Cứu Giáo Dục Tiết Lộ Mối Lo Ngại Về Chấm Điểm Tự Động
Đồng thời, Anthropic đã công bố một báo cáo giáo dục phân tích cách giáo viên sử dụng Claude , tiết lộ những mô hình đáng lo ngại trong việc áp dụng AI. Nghiên cứu đã xem xét 74.000 cuộc trò chuyện từ các tài khoản giáo dục đại học trong tháng 5 và tháng 6 năm 2025, phát hiện ra rằng các nhà giáo dục ngày càng dựa vào AI cho các nhiệm vụ nhạy cảm như đánh giá học sinh.
Nghiên cứu phát hiện rằng trong khi phát triển chương trình giảng dạy chiếm 57% việc sử dụng AI trong giáo viên, một mức đáng lo ngại là 7% sử dụng Claude để đánh giá hiệu suất học sinh. Đáng báo động hơn là gần một nửa trong số các tương tác chấm điểm này—48,9%—liên quan đến tự động hóa hoàn toàn thay vì hỗ trợ AI. Điều này xảy ra mặc dù chính các nhà giáo dục đánh giá AI là ít hiệu quả nhất cho các nhiệm vụ đánh giá.
Thống kê sử dụng Claude trong Giáo dục
Danh mục Nhiệm vụ | Tỷ lệ Sử dụng | Mức độ Tự động hóa |
---|---|---|
Phát triển Chương trình Giảng dạy | 57% | Thấp (ưu tiên hợp tác) |
Nghiên cứu Học thuật | 13% | Thấp (ưu tiên hợp tác) |
Đánh giá/Chấm điểm Học sinh | 7% | 48.9% (tự động hóa cao) |
Nhiệm vụ Hành chính | Tỷ lệ còn lại | Tự động hóa cao |
![]() |
---|
Khám phá sự phức tạp và tác động của AI trong giáo dục |
Giảng Viên Bày Tỏ Mối Lo Ngại Đạo Đức Về Chấm Điểm AI
Nghiên cứu bao gồm nghiên cứu định tính từ 22 thành viên khoa của Đại học Northeastern , những người nhấn mạnh các vấn đề đạo đức đáng kể với chấm điểm tự động. Một giáo sư nhấn mạnh nghĩa vụ đạo đức mà các nhà giáo dục có đối với học sinh của họ, tuyên bố rằng học sinh trả học phí cho chuyên môn của con người, không phải đánh giá AI.
Chính Anthropic đã bày tỏ lo ngại về tỷ lệ tự động hóa cao trong chấm điểm, thừa nhận rằng việc ủy thác các nhiệm vụ giáo dục quan trọng như vậy đặt ra những câu hỏi nghiêm trọng về chất lượng và công bằng giáo dục. Công ty lưu ý rằng trong khi mức độ mà các đánh giá do AI tạo ra ảnh hưởng đến điểm số cuối cùng vẫn chưa rõ ràng, dữ liệu cho thấy sự phụ thuộc đáng kể vào đánh giá tự động.
Tác Động Rộng Hơn Của AI Trong Giáo Dục
Thời điểm của những phát triển này trùng với sự cạnh tranh gia tăng giữa các công ty AI nhắm vào lĩnh vực giáo dục. Anthropic gần đây đã ra mắt Learning Mode cho Claude , trong khi các đối thủ cạnh tranh như OpenAI đã giới thiệu Study Mode. Google đã làm cho bộ AI đô la Mỹ 20 mỗi tháng của mình miễn phí cho sinh viên đại học, làm nổi bật tiềm năng sinh lợi của các hợp đồng giáo dục.
Nghiên cứu tiết lộ rằng các nhà giáo dục sẵn sàng tự động hóa các nhiệm vụ hành chính như quản lý tài chính và hồ sơ học sinh hơn, trong khi thích hợp tác AI cho các hoạt động phức tạp đòi hỏi tư duy phản biện. Tuy nhiên, tỷ lệ tự động hóa cao trong chấm điểm cho thấy một số nhà giáo dục có thể đang vượt qua ranh giới đạo đức trong việc áp dụng AI của họ.
Phương pháp nghiên cứu
- Nguồn dữ liệu: 74.000 cuộc hội thoại ẩn danh với Claude từ các tài khoản giáo dục đại học
- Khoảng thời gian: Tháng 5 - Tháng 6 năm 2025
- Nghiên cứu bổ sung: Dữ liệu khảo sát và định tính từ 22 giảng viên Đại học Northeastern
- Phân loại nhiệm vụ: Được đối chiếu với cơ sở dữ liệu O*NET của Bộ Lao động Hoa Kỳ
- Loại tài khoản: Tài khoản miễn phí và Pro với địa chỉ email giáo dục đại học
Tùy Chọn Kiểm Soát Người Dùng Và Bảo Vệ Dữ Liệu
Mặc dù có những thay đổi chính sách, Anthropic duy trì rằng người dùng vẫn giữ quyền kiểm soát dữ liệu của họ. Công ty tuyên bố sử dụng các quy trình tự động để ẩn thông tin nhạy cảm và tuyên bố không bán dữ liệu người dùng cho bên thứ ba. Người dùng muốn từ chối có thể tắt nút chuyển đổi Help improve Claude trong cài đặt quyền riêng tư của họ.
Đối với người dùng hiện tại có thể đã vô tình đồng ý thu thập dữ liệu, cài đặt có thể được thay đổi bằng cách điều hướng đến Settings > Privacy > Privacy Settings. Tuy nhiên, bất kỳ dữ liệu nào đã được thu thập không thể được lấy lại một khi người dùng đã tham gia vào chương trình huấn luyện.