Người bệnh nhập viện vì chatbot trị liệu: hồi chuông cảnh báo

Các bác sĩ đã ghi nhận nhiều trường hợp bệnh nhân nhập viện vì 'loạn thần AI' sau khi sử dụng chatbot trị liệu trong thời gian dài.
Trong bối cảnh công nghệ AI đang phát triển vượt bậc, việc ứng dụng chatbot vào lĩnh vực trị liệu tâm lý đã trở thành một xu hướng phổ biến. Tuy nhiên, sự xuất hiện của các công cụ này cũng đi kèm với nhiều rủi ro nghiêm trọng, khiến nhiều bang tại Mỹ đang xem xét ban hành luật cấm hoặc hạn chế việc sử dụng chúng.
Chatbot trị liệu tiềm ẩn nhiều nguy cơ
Mối lo ngại lớn nhất về các chatbot trị liệu là khả năng đưa ra những lời khuyên nguy hiểm. Các nghiên cứu đã chỉ ra rằng AI có thể thất bại trong việc nhận diện các dấu hiệu nguy hiểm và thậm chí đưa ra những lời khuyên tai hại.
Ví dụ, một chatbot đã cung cấp thông tin về những cây cầu cao khi người dùng hỏi một câu có hàm ý tự tử. Điều này cho thấy AI, vốn được tối ưu hóa để đưa ra câu trả lời "làm hài lòng", không có khả năng "phản biện" và xử lý các tình huống phức tạp như một nhà trị liệu thực thụ.
Đặc biệt, hiện tượng "loạn thần AI" (AI psychosis) đang trở thành một mối lo ngại mới. Các bác sĩ tâm thần đã ghi nhận nhiều trường hợp bệnh nhân nhập viện sau khi sử dụng chatbot trị liệu trong thời gian dài.
Mặc dù AI không phải là nguyên nhân trực tiếp gây ra loạn thần nhưng sự luôn sẵn có và xu hướng luôn chiều lòng người dùng của nó có thể "khuếch đại các lỗ hổng" tâm lý, tạo ra một vòng lặp khiến ảo tưởng của người bệnh trở nên mạnh mẽ hơn.
Rào cản pháp lý
Sự thiếu vắng các quy định cụ thể đã dẫn đến nhiều vấn đề gây khó khăn cho cả người dùng và nhà phát triển. Tại Mỹ, các bang như Illinois, Nevada và Utah đã ban hành luật yêu cầu sự tham gia của một chuyên gia có giấy phép trong bất kỳ dịch vụ trị liệu AI nào.
Đáng chú ý, luật của Illinois còn cấm các nhà trị liệu dùng AI để "đưa ra quyết định trị liệu" hoặc giao tiếp trực tiếp với khách hàng, chỉ được phép dùng cho các công việc hành chính.
Bên cạnh đó, nhiều chatbot còn bị cáo buộc quảng cáo sai sự thật, "tự xưng" là các chuyên gia sức khỏe tâm thần. Cả Hiệp hội Tâm lý học Mỹ (APA) và nhiều tổ chức bảo vệ người tiêu dùng đã gửi đơn khiếu nại lên Ủy ban Thương mại Liên bang (FTC) yêu cầu điều tra các hành vi này.
Đặc biệt, một trong những khó khăn lớn nhất là việc định nghĩa và phân biệt các loại hình dịch vụ AI. Không phải tất cả chatbot đều tự nhận là công cụ trị liệu, nhưng người dùng vẫn có thể tìm kiếm lời khuyên y tế từ chúng.
Luật mới của các bang cũng chưa phân biệt rõ ràng giữa các loại hình này, gây ra sự mơ hồ trong việc áp dụng và thực thi...