Nhảy đến nội dung
 

Hơn 1 triệu người nói muốn tự tử với ChatGPT mỗi tuần

OpenAI cho biết hơn 1 triệu người dùng ChatGPT mỗi tuần đã gửi tin nhắn “có dấu hiệu rõ ràng của ý định hoặc kế hoạch tự tử”, theo một bài đăng blog công bố hôm 27/10.

Bài viết của nhà phát triển ChatGPT tiết lộ khoảng 0,07% người dùng hoạt động hàng tuần - tương đương 560.000 trong tổng số 800 triệu người - thể hiện dấu hiệu khủng hoảng tâm lý nghiêm trọng như hoang tưởng hoặc hưng cảm.

Tuy nhiên, OpenAI lưu ý các con số này chỉ là “phân tích sơ bộ” do việc nhận diện và đo lường loại hội thoại này rất phức tạp.

Thông tin được công bố giữa lúc OpenAI đang chịu áp lực pháp lý và dư luận gia tăng. Công ty đang bị gia đình một thiếu niên tự tử kiện, sau khi cậu bé có thời gian dài trò chuyện với ChatGPT trước khi qua đời. Ủy ban Thương mại Liên bang Mỹ (FTC) cũng đã mở cuộc điều tra diện rộng với các hãng phát triển chatbot AI, trong đó có OpenAI, để xác định tác động tiêu cực với trẻ em và thanh thiếu niên.

OpenAI khẳng định phiên bản GPT-5 mới đã giảm đáng kể các phản hồi nguy hiểm và “đạt 91% mức tuân thủ hành vi an toàn, so với 77% ở phiên bản trước”. Hệ thống hiện có liên kết trực tiếp đến đường dây nóng hỗ trợ khủng hoảng và hiển thị nhắc nhở nghỉ ngơi trong các phiên trò chuyện dài.

Công ty cho biết đã mời 170 chuyên gia y khoa và tâm lý trong mạng lưới Global Physician Network tham gia đánh giá mô hình, xem xét hơn 1.800 phản hồi liên quan đến tình huống tự làm hại bản thân và giúp soạn lại câu trả lời của chatbot cho các chủ đề nhạy cảm.

Theo OpenAI, nhóm chuyên gia được yêu cầu đánh giá xem liệu phản hồi của mô hình có “đạt chuẩn mong muốn” hay không - nghĩa là thể hiện phản ứng đồng thuận và phù hợp về mặt tâm lý học trong các tình huống cụ thể.

Từ lâu, các chuyên gia sức khỏe tâm thần cảnh báo về “tính nịnh hót” (sycophancy) của chatbot - xu hướng đồng ý với người dùng ngay cả khi điều đó có thể gây hại. Họ lo ngại việc người dùng tìm đến AI để được an ủi tinh thần có thể khiến nguy cơ tổn thương tâm lý tăng cao, đặc biệt với người đang có vấn đề về cảm xúc.

Trong bài viết của mình, OpenAI nhấn mạnh “các triệu chứng tâm thần và khủng hoảng cảm xúc là hiện tượng phổ quát trong xã hội loài người. Khi số lượng người dùng tăng lên, việc xuất hiện những tình huống này trong ChatGPT là điều không thể tránh khỏi”.

Giữa tranh cãi, CEO Sam Altman gần đây cho biết công ty đã “giảm thiểu đáng kể các rủi ro sức khỏe tâm thần” và sẽ nới lỏng nhiều hạn chế, bao gồm cả việc cho phép người lớn tạo nội dung nhạy cảm.

Báo cáo mới của OpenAI cho thấy AI không chỉ là công cụ tìm kiếm hay trợ lý sáng tạo, mà còn đang trở thành nơi người dùng tìm đến để chia sẻ nỗi cô đơn và tuyệt vọng - điều mà các chuyên gia cảnh báo cần được giám sát chặt chẽ hơn bao giờ hết.

(Theo The Guardian)

 
 
 
CÔNG TY CỔ PHẦN ĐẠI SÀN
logo

Giấp phép đăng ký kinh doanh số 0103884103 do Sở Kế Hoạch & Đầu Tư Hà Nội cấp lần đầu ngày 29/06/2009.

Trụ sở chính: Gian số L4-07 tầng 4, nơ-2 - Gold Season, 47 Nguyễn Tuân, Thanh Xuân, Hà Nội

Email: info@daisan.vn

TRỤ SỞ HÀ NỘI

Địa chỉ Gian số L4-07 tầng 4, nơ-2 - Gold Season, 47 Nguyễn Tuân, Thanh Xuân, Hà Nội

Điện thoại  Điện thoại: 1900 98 98 36

Fax  Fax: 045625169

CHI NHÁNH HỒ CHÍ MINH

Địa chỉ 57/1c, Khu phố 1, Phường An Phú Đông, Quận 12, Thành phố Hồ Chí Minh

Điện thoại  Email: info@daisan.vn