Khi trí tuệ nhân tạo ngày càng được tích hợp vào cuộc sống hàng ngày, những lo ngại về tác động tâm lý của nó lên người dùng đang gia tăng. Lần đầu tiên, OpenAI đã tiết lộ những số liệu đáng kinh ngạc về số lượng người dùng ChatGPT có thể đang trải qua các cuộc khủng hoảng sức khỏe tâm thần nghiêm trọng trong quá trình tương tác với chatbot AI, thúc đẩy công ty triển khai các nâng cấp an toàn quan trọng cho mô hình mới nhất của mình.
Số Liệu Sức Khỏe Tâm Thần Của OpenAI Tiết Lộ Mối Lo Ngại Rộng Khắp
Theo dữ liệu nội bộ được OpenAI công bố, khoảng 0,07% người dùng ChatGPT hoạt động hàng tuần cho thấy các dấu hiệu có thể của các tình trạng khẩn cấp về sức khỏe tâm thần liên quan đến rối loạn tâm thần hoặc hưng cảm. Với thông báo gần đây từ CEO Sam Altman rằng ChatGPT hiện có 800 triệu người dùng hoạt động hàng tuần, con số này tương đương với khoảng 560.000 người có khả năng đang trải qua các cơn hưng cảm hoặc rối loạn tâm thần khi sử dụng dịch vụ. Công ty cũng phát hiện ra rằng 0,15% người dùng thể hiện các chỉ số rõ ràng về ý định hoặc kế hoạch tự tử tiềm ẩn, tương đương khoảng 1,2 triệu người mỗi tuần, trong khi 0,15% khác có hành vi cho thấy sự gắn bó về mặt cảm xúc gia tăng với ChatGPT với cái giá phải trả là các mối quan hệ và trách nhiệm trong thế giới thực.
Thống kê người dùng ChatGPT hàng tuần (Dựa trên 800 triệu người dùng):
- Người dùng có dấu hiệu loạn thần/hưng cảm: 560.000 (0,07%)
- Người dùng bày tỏ ý định tự tử: 1,2 triệu (0,15%)
- Người dùng có sự gắn kết cảm xúc với AI: 1,2 triệu (0,15%)
- Tổng số người dùng bị ảnh hưởng: Khoảng 2,96 triệu
Hiện Tượng Rối Loạn Tâm Thần Do AI Ngày Càng Gia Tăng
Những tháng gần đây đã chứng kiến nhiều sự việc đáng lo ngại khi người dùng phát triển mối quan hệ không lành mạnh với ChatGPT, với một số trường hợp dẫn đến nhập viện, ly hôn, hoặc thậm chí tử vong. Các bác sĩ tâm thần đã bày tỏ sự báo động về cái được gọi là rối loạn tâm thần do AI, nơi chatbot dường như thúc đẩy sự hoang tưởng và hoang mang của người dùng. Nhiều trường hợp được báo cáo có chung đặc điểm, bao gồm việc người dùng dành hàng giờ để trò chuyện với ChatGPT, thường là vào đêm khuya, trong các phiên kéo dài mãnh liệt có thể củng cố các kiểu suy nghĩ có vấn đề. Hiện tượng này đã chứng tỏ là đặc biệt thách thức vì các mô hình ngôn ngữ lớn trước đây thường có hiệu suất suy giảm khi cuộc trò chuyện kéo dài, mặc dù OpenAI tuyên bố đã đạt được tiến bộ đáng kể trong việc giải quyết vấn đề độ tin cậy này.
Các Cải Tiến An Toàn Của OpenAI Và Sự Hợp Tác Với Chuyên Gia
Để đối phó với những lo ngại này, OpenAI đã hợp tác với hơn 170 bác sĩ tâm thần, nhà tâm lý học và bác sĩ chăm sóc chính từ hàng chục quốc gia để đại tu cách ChatGPT phản hồi với những người dùng có dấu hiệu đau khổ tâm lý. Phiên bản mới nhất của GPT-5 được thiết kế để thể hiện sự đồng cảm trong khi cẩn thận tránh xác nhận những niềm tin không có cơ sở trong thực tế. Ví dụ, khi một người dùng tuyên bố rằng máy bay đang bay qua nhà của họ để nhắm mục tiêu vào họ, ChatGPT giờ đây cảm ơn người dùng vì đã chia sẻ cảm xúc nhưng lưu ý rằng không có máy bay hay lực lượng bên ngoài nào có thể đánh cắp hoặc chèn suy nghĩ của bạn. Các chuyên gia y tế đã xem xét hơn 1.800 phản hồi của mô hình và nhận thấy rằng GPT-5 đã giảm 39% đến 52% các câu trả lời không mong muốn trên tất cả các danh mục sức khỏe tâm thần so với GPT-4o.
Cải tiến An toàn của GPT-5:
- Giảm các phản hồi không mong muốn: 39-52% trên các danh mục sức khỏe tâm thần
- Đánh giá chuyên gia: Hơn 170 chuyên gia sức khỏe tâm thần từ hàng chục quốc gia
- Đánh giá phản hồi: Hơn 1.800 phản hồi của mô hình được phân tích
- Cải tiến chính: Giảm leo thang tốt hơn và hướng dẫn tìm kiếm sự trợ giúp chuyên nghiệp
Hạn Chế Và Thách Thức Đang Tiếp Diễn
Bất chấp những cải tiến này, OpenAI thừa nhận những hạn chế đáng kể trong cách tiếp cận của mình. Công ty đã tự thiết kế các tiêu chuẩn đánh giá của riêng mình để đo lường rủi ro sức khỏe tâm thần, và không rõ các số liệu này chuyển dịch sang kết quả thực tế như thế nào. Trong khi mô hình có thể tạo ra các phản hồi tốt hơn trong các đánh giá có kiểm soát, không có gì đảm bảo rằng những người dùng đang trải qua chứng rối loạn tâm thần hoặc ý nghĩ tự tử sẽ thực sự tìm kiếm sự giúp đỡ chuyên nghiệp. Hệ thống phát hiện xem xét lịch sử trò chuyện tổng thể của người dùng, gắn cờ các mối quan ngại tiềm ẩn khi các mẫu hành vi thay đổi đáng kể, chẳng hạn như khi một người dùng chưa từng thảo luận về khoa học đột nhiên tuyên bố có những khám phá xứng đáng giải Nobel. Tuy nhiên, công ty thừa nhận rằng việc xác định chính xác các cuộc khủng hoảng sức khỏe tâm thần vẫn còn là thách thức do tính tương đối hiếm gặp của chúng và sự phức tạp của giao tiếp con người.
Phân tích khối lượng tin nhắn (Dựa trên 18 tỷ tin nhắn hàng tuần):
- Tin nhắn liên quan đến rối loạn tâm thần/hưng cảm: 1,8 triệu (0,01%)
- Tin nhắn liên quan đến tự tử: 9 triệu (0,05%)
- Tin nhắn gắn bó cảm xúc: 5,4 triệu (0,03%)
Tương Lai Của Các Biện Pháp Bảo Vệ Sức Khỏe Tâm Thần Trong AI
Ông Johannes Heidecke, trưởng bộ phận hệ thống an toàn của OpenAI, bày tỏ hy vọng rằng những cải tiến sẽ giúp hướng nhiều người đang vật lộn với các tình trạng sức khỏe tâm thần tìm đến sự giúp đỡ chuyên nghiệp sớm hơn so với khả năng họ có thể làm. Công ty cũng đã triển khai thêm các lời nhắc nhở nhẹ nhàng hơn để người dùng nghỉ ngơi trong các phiên kéo dài. Những phát triển này diễn ra trong bối cảnh sự giám sát trách nhiệm của các công ty AI đối với sức khỏe người dùng ngày càng gia tăng, đặc biệt là sau các sự việc bi thảm như vụ kiện tử vong oan do cha mẹ của một thiếu niên 16 tuổi đệ đơn, người được cho là đã hỏi ý kiến ChatGPT về cách thắt thòng lọng trước khi tự kết liễu đời mình. Khi AI trở nên tinh vi và có khả năng phản hồi cảm xúc hơn, sự căng thẳng giữa việc tạo ra trải nghiệm hấp dẫn và duy trì an toàn cho người dùng tiếp tục đặt ra những thách thức phức tạp cho các nhà phát triển và cơ quan quản lý.
