Bối cảnh quy định cho trí tuệ nhân tạo trong chăm sóc sức khỏe tâm thần đang phát triển nhanh chóng khi các bang đang vật lộn với những rủi ro và lợi ích của các công cụ trị liệu được hỗ trợ bởi AI. Illinois đã gia nhập cùng Nevada và Utah trong việc hạn chế việc sử dụng AI trong các môi trường trị liệu, trong khi CEO của OpenAI Sam Altman đã công khai thừa nhận những lo ngại đáng kể về quyền riêng tư khi sử dụng ChatGPT để hỗ trợ sức khỏe tâm thần.
Illinois Triển Khai Các Hạn Chế Toàn Diện Đối Với Liệu Pháp AI
Thống đốc Illinois JB Pritzker đã ký Đạo luật Sức khỏe và Giám sát Tài nguyên Tâm lý vào ngày 1 tháng 8 năm 2024, khiến bang này trở thành bang thứ ba hạn chế AI trong các ứng dụng trị liệu. Luật pháp cấm việc sử dụng trí tuệ nhân tạo để cung cấp sức khỏe tâm thần và ra quyết định trị liệu, mặc dù các chuyên gia sức khỏe hành vi được cấp phép vẫn có thể sử dụng công nghệ AI cho các nhiệm vụ hành chính và dịch vụ hỗ trợ bổ sung. Mario Treto Jr. , thư ký tại Sở Quy định Tài chính và Nghề nghiệp của Illinois , nhấn mạnh rằng cư dân xứng đáng được chăm sóc sức khỏe chất lượng từ các chuyên gia có trình độ thay vì các chương trình máy tính tạo ra phản hồi bằng cách thu thập thông tin từ khắp internet.
Các bang có Hạn chế Liệu pháp AI
Bang | Tình trạng | Các Điều khoản Chính |
---|---|---|
Illinois | Đã ban hành (Tháng 8/2024) | Cấm AI đưa ra quyết định sức khỏe tâm thần; cho phép sử dụng cho mục đích hành chính |
Nevada | Đã ban hành (Tháng 6/2024) | Hạn chế AI trong trường học và chăm sóc sức khỏe tâm thần |
Utah | Đã ban hành (Tháng 3/2024) | Quy định các chatbot AI sức khỏe tâm thần |
California | Đề xuất | Sẽ thành lập nhóm làm việc về sức khỏe tâm thần và AI |
New Jersey | Đề xuất | Sẽ cấm quảng cáo AI như chuyên gia sức khỏe tâm thần có giấy phép |
Pennsylvania | Đề xuất | Sẽ yêu cầu sự đồng ý của phụ huynh đối với các dịch vụ sức khỏe tâm thần ảo trong trường học |
Phong Trào Cấp Bang Ngày Càng Tăng Chống Lại Liệu Pháp AI
Động lực quy định đang tăng lên trên nhiều bang. Nevada đã thông qua luật vào tháng 6 hạn chế việc sử dụng AI trong trường học và giới hạn các ứng dụng của các nhà cung cấp dịch vụ chăm sóc sức khỏe tâm thần và hành vi. Utah ban hành các quy định tương tự vào tháng 3, đặc biệt nhắm vào các chatbot sức khỏe tâm thần sử dụng công nghệ AI. Ba bang bổ sung đang tích cực xem xét các hạn chế riêng của họ: California đề xuất tạo ra một nhóm làm việc về sức khỏe tâm thần và AI, New Jersey sẽ cấm quảng cáo AI như một sự thay thế cho các chuyên gia sức khỏe tâm thần được cấp phép, và Pennsylvania tìm cách yêu cầu sự đồng ý của phụ huynh trước khi các trường học có thể quản lý các dịch vụ sức khỏe tâm thần ảo cho trẻ em.
CEO OpenAI Thừa Nhận Các Lỗ Hổng Bảo Mật
Sam Altman , CEO của OpenAI , đã nêu ra những lo ngại đáng kể về việc sử dụng ChatGPT cho các phiên trị liệu. Trong một cuộc phỏng vấn podcast tháng 7, Altman cảnh báo rằng các cuộc trò chuyện với ChatGPT sẽ không nhất thiết được giữ riêng tư và lưu ý sự vắng mặt của các biện pháp bảo vệ pháp lý cho thông tin cá nhân nhạy cảm được chia sẻ với hệ thống AI. Ông giải thích rằng nếu các thủ tục pháp lý yêu cầu OpenAI tiết lộ thông tin, hiện tại không có căn cứ nào để bảo vệ những gì người dùng có thể coi là các giao tiếp trị liệu bí mật.
Nghiên Cứu Tiết Lộ Các Hạn Chế Của Liệu Pháp AI
Một nghiên cứu của Đại học Stanford được công bố ngay trước cuộc phỏng vấn của Altman phát hiện rằng các chatbot trị liệu AI không được chuẩn bị đầy đủ để thay thế các nhà cung cấp sức khỏe tâm thần con người. Nghiên cứu tiết lộ rằng các hệ thống này thể hiện sự kỳ thị và đưa ra những tuyên bố không phù hợp liên quan đến các tình trạng sức khỏe tâm thần nghiêm trọng, bao gồm các phản hồi đối với người dùng đang trải qua ảo tưởng, ý nghĩ tự tử, ảo giác và rối loạn ám ảnh cưỡng chế. Những phát hiện này nhấn mạnh các rủi ro tiềm ẩn của việc triển khai các hệ thống AI trong các bối cảnh sức khỏe tâm thần nhạy cảm mà không có các biện pháp bảo vệ thích hợp.
Các Mối Quan Ngại Chính Về Quyền Riêng Tư và An Toàn Đã Được Xác Định
- Lỗ Hổng Quyền Riêng Tư: Các phiên trị liệu với ChatGPT có thể không được giữ bí mật
- Khoảng Trống Bảo Vệ Pháp Lý: Hiện tại không có căn cứ pháp lý để bảo vệ thông tin nhạy cảm được chia sẻ với AI
- Biểu Hiện Kỳ Thị: Các chatbot AI thể hiện sự thiên vị đối với một số tình trạng sức khỏe tâm thần
- Phản Hồi Không Phù Hợp: Hệ thống đưa ra những tuyên bố không thích hợp về các tình trạng nghiêm trọng (ảo tưởng, ý định tự tử, ảo gi각, OCD)
- Rủi Ro Thay Thế: Các hệ thống AI không được chuẩn bị đầy đủ để thay thế các nhà cung cấp dịch vụ sức khỏe tâm thần con người
Tác Động Rộng Lớn Hơn Đối Với AI Trong Chăm Sóc Sức Khỏe
Sự hội tụ của các hạn chế cấp bang và sự thừa nhận của ngành công nghiệp về các hạn chế báo hiệu một thời điểm quan trọng cho các ứng dụng AI trong chăm sóc sức khỏe. Trong khi công nghệ mang lại những lợi ích tiềm năng cho hỗ trợ hành chính và các dịch vụ bổ sung, xu hướng quy định hiện tại nhấn mạnh giá trị không thể thay thế của chuyên môn con người trong điều trị sức khỏe tâm thần. Khi nhiều bang hơn xem xét luật pháp tương tự, ngành công nghiệp AI đối mặt với áp lực ngày càng tăng để giải quyết các lo ngại về quyền riêng tư và phát triển các biện pháp bảo vệ mạnh mẽ hơn cho các ứng dụng chăm sóc sức khỏe nhạy cảm.