Trong một tiết lộ đáng báo động về tình trạng sức khỏe tâm thần toàn cầu, OpenAI đã công bố rằng người dùng ChatGPT tham gia vào khoảng một triệu cuộc trò chuyện về tự tử mỗi tuần. Con số gây sửng sốt này, được rút ra từ 800 triệu người dùng hoạt động hàng tuần của nền tảng, chiếm khoảng 0,15% tổng số tương tác - một con số có vẻ nhỏ cho đến khi bạn xem xét sự đau khổ của con người đằng sau mỗi cuộc trò chuyện. Giới công nghệ hiện đang vật lộn với cả quy mô của cuộc khủng hoảng sức khỏe tâm thần này và vai trò mà AI nên đảm nhận trong việc giải quyết nó.
Quy mô của Cuộc Khủng Hoảng Sức Khỏe Tâm Thần
Khối lượng cuộc trò chuyện liên quan đến tự tử trên ChatGPT đã làm nhiều nhà quan sát bị sốc, mặc dù số liệu thống kê về sức khỏe tâm thần cho thấy chúng ta không nên ngạc nhiên. Dữ liệu gần đây từ Viện Sức khỏe Tâm thần Quốc gia Hoa Kỳ chỉ ra rằng hơn một trong năm người trưởng thành ở Mỹ sống chung với bệnh tâm thần - xấp xỉ 59,3 triệu người chỉ riêng trong năm 2022. Mặc dù những con số này bao gồm các tình trạng từ lo âu nhẹ đến rối loạn nghiêm trọng, chúng vẽ nên một bức tranh về một dân số đang vật lộn với sức khỏe tâm lý. Các cuộc trò chuyện trên ChatGPT cụ thể liên quan đến các dấu hiệu rõ ràng về khả năng lên kế hoạch hoặc ý định tự tử, khiến chúng đặc biệt đáng lo ngại từ góc độ can thiệp khủng hoảng.
Hầu hết mọi người không hiểu dân số Mỹ đang không khỏe mạnh về tâm thần đến mức nào. Tất nhiên là có một triệu người nói chuyện với ChatGPT về tự tử hàng tuần. Đây không phải là một con số thống kê đáng ngạc nhiên chút nào.
Bối cảnh Thống kê Sức khỏe Tâm thần:
- 23,1% người trưởng thành ở Mỹ mắc bệnh tâm thần (59,3 triệu người vào năm 2022)
- Các nước phát triển điển hình: ~5±3% dân số báo cáo có cảm giác muốn tự tử hàng năm
- Các cuộc trò chuyện về tự tử trên ChatGPT: 0,15% tương tác hàng tuần (1 triệu trong số 800 triệu người dùng)
AI với Vai trò Người Tâm Tình Khó Tin
Điều gì đang thúc đẩy hàng triệu người tìm đến một trí tuệ nhân tạo khi đối mặt với những khoảnh khắc đen tối nhất của họ? Các cuộc thảo luận trong cộng đồng tiết lộ một số lý do thuyết phục. ChatGPT cung cấp những điều mà nhiều người không thể: sự sẵn có liên tục, tính bảo mật tuyệt đối và tự do khỏi sự phán xét. Đối với những cá nhân có thể cảm thấy xấu hổ khi thảo luận về ý nghĩ tự tử với bạn bè, gia đình, hoặc thậm chí là các nhà trị liệu, bản chất ẩn danh của tương tác AI cung cấp một không gian an toàn để bày tỏ cảm xúc mà họ có thể kìm nén. Như một bình luận viên đã lưu ý, AI đã trở thành thực thể có sẵn nhất cho bất kỳ ai có vấn đề nhạy cảm muốn chia sẻ - tương đối rẻ, không phán xét và luôn có thể tiếp cận.
![]() |
|---|
| Sam Altman, CEO của OpenAI, thảo luận về khả năng tiếp cận của công nghệ AI trong hỗ trợ sức khỏe tâm thần |
Lưỡi Dao Hai Lưỡi của Tư Vấn AI
Mặc dù khả năng tiếp cận hỗ trợ sức khỏe tâm thần bằng AI có vẻ có lợi trên bề mặt, các nhà đam mê công nghệ và những người ủng hộ sức khỏe tâm thần đã đưa ra những lo ngại nghiêm trọng về những hạn chế của nó. Vấn đề cơ bản nằm ở thiết kế của ChatGPT - về cơ bản nó là một hệ thống khớp mẫu tinh vi mà không có sự hiểu biết thực sự hoặc đào tạo lâm sàng. Các chuyên gia sức khỏe tâm thần trong cuộc thảo luận lưu ý rằng AI có thể dễ dàng trở thành một phần của vòng xoáy ảo tưởng của một người hơn là một phần hữu ích trong nỗ lực giải quyết nó. Đối với những cá nhân mắc các chứng bệnh như rối loạn lưỡng cực hoặc tâm thần phân liệt, xu hướng phản ứng xu nịnh của AI có khả năng củng cố các kiểu suy nghĩ nguy hiểm hơn là cung cấp những quan điểm thách thức mà liệu pháp chuyên nghiệp có thể mang lại.
Những lo ngại của cộng đồng về hỗ trợ sức khỏe tâm thần bằng AI:
- Ưu điểm: Luôn sẵn sàng, không phán xét, bảo mật, chi phí tương đối thấp
- Nhược điểm: Có thể củng cố các ảo tưởng, thiếu đào tạo lâm sàng, chỉ giới hạn ở việc giới thiệu đường dây nóng
- Rủi ro: Có thể trở thành một phần của "vòng xoáy ảo tưởng" đối với người dùng bị bệnh nặng
Vượt Ra Ngoài Giới Thiệu Đường Dây Nóng: Những Hạn Chế của Giải Pháp Hiện Tại
Một chỉ trích phổ biến nổi lên từ cuộc thảo luận tập trung vào sự không đầy đủ của giao thức phản ứng hiện tại của ChatGPT. Khi phát hiện nội dung tự tử, AI thường cung cấp thông tin đường dây nóng khủng hoảng và ngừng tham gia - một cách tiếp cận mà nhiều bình luận viên mô tả là không đủ. Như một nhà quan sát thẳng thắn tuyên bố, hầu hết các thông báo ngăn chặn tự tử là một trò đùa - giả vờ rằng 'gọi đường dây nóng này' có nghĩa là bạn đã hoàn thành công việc của mình. Cộng đồng gợi ý rằng sự can thiệp AI thực sự hiệu quả sẽ cần hướng dẫn người dùng đến các giải pháp thực tế để cải thiện hoàn cảnh sống của họ, giúp họ chuyển từ đau khổ không thể chịu đựng được sang sự tồi tệ có thể quản lý được, nơi hy vọng trở nên khả thi một lần nữa. Tuy nhiên, việc phát triển các khả năng tinh vi như vậy làm dấy lên những câu hỏi phức tạp về đạo đức và trách nhiệm pháp lý mà ngành công nghệ mới chỉ bắt đầu đối mặt.
Giao thức phản hồi hiện tại của ChatGPT:
- Phát hiện "các dấu hiệu rõ ràng về kế hoạch hoặc ý định tự tử tiềm ẩn"
- Cung cấp thông tin đường dây nóng khủng hoảng và các nguồn hỗ trợ
- Không tiếp tục cuộc trò chuyện trị liệu ngoài việc giới thiệu dịch vụ hỗ trợ
- Trọng tâm chính dường như là giảm thiểu trách nhiệm pháp lý hơn là chăm sóc toàn diện
Bối cảnh Rộng Lớn Hơn: Các Yếu Tố Xã Hội Thúc Đẩy Khủng Hoảng Sức Khỏe Tâm Thần
Bên dưới cuộc thảo luận về vai trò của AI là một câu hỏi đáng lo ngại hơn: tại sao nhiều người lại cảm thấy muốn tự tử như vậy ngay từ đầu? Các bình luận viên chỉ ra nhiều yếu tố xã hội, bao gồm áp lực kinh tế, sự cô lập xã hội và tác động sức khỏe tâm thần của các thuật toán mạng xã hội được thiết kế cho mục đích thu hút tương tác hơn là sức khỏe. Một số người lưu ý đến sự mỉa mai rằng OpenAI, trong khi cố gắng giải quyết việc ngăn chặn tự tử, đồng thời góp phần vào sự lo lắng kinh tế thông qua các hệ thống AI tự động hóa công việc. Điều này làm nổi bật mối quan hệ phức tạp giữa tiến bộ công nghệ và sức khỏe con người - chính những công ty tạo ra các công cụ AI tiên tiến có thể đang làm trầm trọng thêm những vấn đề mà họ hiện đang cố gắng giải quyết.
Việc tiết lộ một triệu cuộc trò chuyện liên quan đến tự tử hàng tuần đại diện cho nhiều hơn chỉ là một con số thống kê - đó là một chỉ số rõ ràng về sự đau khổ lan rộng của con người trong thời đại kỹ thuật số. Trong khi các nền tảng AI như ChatGPT đã vô tình trở thành nguồn lực cho sức khỏe tâm thần, cộng đồng công nghệ nhận ra rằng các giải pháp thực sự sẽ đòi hỏi phải giải quyết các nguyên nhân gốc rễ hơn là chỉ điều trị các triệu chứng. Khi xã hội vượt qua thách thức này, cuộc thảo luận vẫn tiếp tục về vai trò mà công nghệ nên đóng trong việc hỗ trợ sức khỏe tâm thần, và những trách nhiệm mà các công ty công nghệ phải gánh chịu cho cả việc gây ra và giảm bớt nỗi đau khổ tâm lý.

