OpenAI Giới Thiệu Hệ Thống Phát Hiện Tuổi và Cảnh Báo Phụ Huynh Sau Tranh Cãi Về Vụ Tự Tử Của Thiếu Niên

Nhóm Cộng đồng BigGo
OpenAI Giới Thiệu Hệ Thống Phát Hiện Tuổi và Cảnh Báo Phụ Huynh Sau Tranh Cãi Về Vụ Tự Tử Của Thiếu Niên

OpenAI đã công bố những thay đổi lớn đối với các biện pháp an toàn của ChatGPT , giới thiệu hệ thống dự đoán tuổi và giao thức thông báo cho phụ huynh nhằm đáp ứng những lo ngại ngày càng tăng về an toàn thiếu niên. Thông báo này được đưa ra giữa lúc công ty đang chịu sự giám sát chặt chẽ sau các vụ việc gần đây khi thiếu niên bị cáo buộc đã vượt qua các biện pháp bảo vệ an toàn của AI , với những hậu quả bi thảm bao gồm các vụ tự tử đã khơi mào cuộc tranh luận rộng rãi về trách nhiệm của AI .

Thay đổi mô hình sử dụng ChatGPT:

  • Sử dụng liên quan đến công việc: Giảm từ ~50% xuống ~25% trong năm qua
  • Sử dụng cá nhân: Tăng đáng kể trong tất cả các nhóm tuổi
  • Cơ sở người dùng: Dành cho độ tuổi từ 13 trở lên

Công Nghệ Phát Hiện Tuổi Làm Dấy Lên Lo Ngại Về Quyền Riêng Tư

Công ty đang phát triển một hệ thống dự đoán tuổi tự động phân tích cách người dùng tương tác với ChatGPT để xác định xem họ có dưới 18 tuổi hay không. Khi hệ thống không chắc chắn về tuổi của người dùng, nó sẽ mặc định coi họ là trẻ vị thành niên với các hạn chế an toàn nghiêm ngặt hơn. Tại một số khu vực, OpenAI cũng có thể yêu cầu xác minh danh tính, thừa nhận điều này tạo ra sự đánh đổi về quyền riêng tư đối với người dùng trưởng thành.

Các thành viên cộng đồng đã bày tỏ sự hoài nghi về cách tiếp cận này, đặc biệt là về các trường hợp dương tính giả. Lo ngại không chỉ dừng lại ở sự bất tiện - người dùng lo lắng về việc bị các hệ thống AI gắn cờ sai và phải đối mặt với những can thiệp không mong muốn, bao gồm khả năng bị cảnh sát liên lạc vì những cuộc khủng hoảng sức khỏe tâm thần được nhận thức.

Cảnh Báo Phụ Huynh và Giao Thức Liên Lạc Với Cơ Quan Chức Năng

Có lẽ khía cạnh gây tranh cãi nhất liên quan đến kế hoạch của OpenAI trong việc liên lạc với phụ huynh hoặc cơ quan chức năng khi hệ thống phát hiện ý tưởng tự tử ở người dùng dưới 18 tuổi. Công ty tuyên bố sẽ đầu tiên cố gắng liên lạc với phụ huynh, và nếu không thành công, có thể liên lạc với cơ quan chức năng trong các trường hợp có nguy cơ tức thời.

Chính sách này đã tạo ra sự phản đối đáng kể từ những người dùng lo sợ về sự can thiệp quá mức và báo động giả. Bản chất tự động của những quyết định này đặc biệt làm các nhà phê bình lo lắng, họ đặt câu hỏi liệu các hệ thống AI có thể đánh giá chính xác các tình huống khủng hoảng thực sự so với việc viết sáng tạo hay thảo luận bình thường hay không.

Hạn Chế Viết Sáng Tạo Gây Ra Tranh Luận

OpenAI có kế hoạch chặn thiếu niên thảo luận về tự tử hoặc tự làm hại bản thân ngay cả trong bối cảnh viết sáng tạo - một phản ứng trực tiếp đối với các trường hợp người dùng đã vượt qua các biện pháp an toàn bằng cách tuyên bố viết những câu chuyện hư cấu. Tuy nhiên, hạn chế toàn diện này đặt ra câu hỏi về các mục đích giáo dục và sáng tạo hợp pháp.

Thách thức nằm ở bản chất cơ bản của các mô hình ngôn ngữ, chúng thích ứng với ngữ cảnh và có thể bị thao túng thông qua việc nhắc nhở khéo léo. Các nhà phê bình cho rằng những người dùng quyết tâm sẽ luôn tìm ra cách vượt qua các hạn chế, trong khi những người dùng hợp pháp có thể phải đối mặt với những rào cản không cần thiết.

Các Biện Pháp An Toàn Mới Cho Người Dùng Dưới 18 Tuổi:

  • Hệ thống dự đoán độ tuổi dựa trên các mẫu sử dụng
  • Mặc định chuyển sang trải nghiệm dành cho người dưới 18 tuổi khi không chắc chắn
  • Không cho phép nội dung tán tỉnh
  • Hạn chế viết sáng tạo về các chủ đề tự tử/tự gây thương tích
  • Liên hệ với phụ huynh khi có ý định tự tử
  • Liên hệ với cơ quan chức năng nếu không thể liên lạc được với phụ huynh trong các tình huống khủng hoảng

Tác Động Rộng Hơn Đối Với Quản Trị AI

Thông báo này phản ánh nỗ lực của OpenAI trong việc cân bằng ba nguyên tắc cạnh tranh: quyền riêng tư của người dùng, tự do của người trưởng thành và bảo vệ thiếu niên. Công ty thừa nhận những nguyên tắc này thường xung đột và không phải ai cũng sẽ đồng ý với cách tiếp cận của họ.

Tôi nghi ngờ rằng chỉ là vấn đề thời gian cho đến khi chỉ có dân số nằm trong mô hình thống kê trung bình mới có thể tiến hành kinh doanh mà không có những rào cản và khó khăn liên tục.

Những thay đổi này làm nổi bật những câu hỏi rộng hơn về quản trị AI và trách nhiệm của doanh nghiệp. Trong khi OpenAI định vị mình là bảo vệ quyền riêng tư thông qua các tính năng bảo mật tiên tiến, các nhà phê bình chỉ ra các thực tiễn rộng hơn của công ty, đặt câu hỏi về tính nhất quán trong lập trường đạo đức của họ.

Sự đánh đổi giữa Quyền riêng tư và An toàn:

  • Yêu cầu xác minh danh tính ở một số quốc gia/trường hợp
  • Các tính năng bảo mật tiên tiến để bảo vệ dữ liệu khỏi nhân viên OpenAI
  • Giám sát tự động để phát hiện việc lạm dụng nghiêm trọng
  • Leo thang đánh giá bởi con người đối với các rủi ro nghiêm trọng (đe dọa tính mạng, gây hại cho người khác, sự cố an ninh mạng)
Cuộc thảo luận của OpenAI về an toàn, tự do và quyền riêng tư của thanh thiếu niên làm nổi bật sự cân bằng phức tạp giữa quyền riêng tư của người dùng và các biện pháp bảo vệ
Cuộc thảo luận của OpenAI về an toàn, tự do và quyền riêng tư của thanh thiếu niên làm nổi bật sự cân bằng phức tạp giữa quyền riêng tư của người dùng và các biện pháp bảo vệ

Phản Ứng Thị Trường và Triển Vọng Tương Lai

Dữ liệu cho thấy các mô hình sử dụng ChatGPT đã thay đổi, với việc sử dụng liên quan đến công việc giảm từ khoảng 50% xuống 25% trong năm qua khi người dùng ngày càng chuyển sang AI cho các vấn đề cá nhân. Xu hướng này khiến các cân nhắc về quyền riêng tư và an toàn trở nên quan trọng hơn, khi AI trở thành một phần thân mật hơn trong cuộc sống của người dùng.

Thời điểm thông báo của OpenAI , trùng với việc đưa tin tiêu cực về các vụ việc an toàn thiếu niên, cho thấy những thay đổi này mang tính phản ứng hơn là chủ động. Khi công nghệ AI tiếp tục phát triển nhanh chóng, thách thức trong việc triển khai các biện pháp bảo vệ hiệu quả mà không kìm hãm việc sử dụng hợp pháp vẫn chưa được giải quyết.

Tham khảo: Teen safety, freedom, and privacy