OpenAI gấp rút thay đổi vì ChatGPT khuyên người dùng chia tay

OpenAI viết lại 'luật chơi' cho ChatGPT khi cấm chatbot đưa ra các lời khuyên nhủ về tình yêu.
Theo GizChina, trong một động thái quan trọng, OpenAI đang âm thầm điều chỉnh lại "luật chơi" của ChatGPT, cấm chatbot này đưa ra các lời khuyên trực tiếp về các mối quan hệ cá nhân. Sự thay đổi này diễn ra sau hàng loạt lo ngại rằng những câu trả lời tự tin một cách máy móc của AI (trí tuệ nhân tạo) có thể gây ra những hậu quả khôn lường cho sức khỏe tâm thần người dùng.
ChatGPT từ "quân sư" tình yêu đến rủi ro tâm lý
Trong nhiều tháng, người dùng đã biến ChatGPT thành một "quân sư" tình yêu, đặt những câu hỏi nhạy cảm như "Tôi có nên chia tay không?". Giờ đây, thay vì nhận được một câu trả lời "có" hoặc "không" dứt khoát, người dùng sẽ được chatbot dẫn dắt để tự suy ngẫm và cân nhắc cảm xúc của chính mình.
Nguyên nhân của sự thay đổi này đến từ một thực tế đáng báo động. Các chuyên gia nhận thấy ChatGPT thường đưa ra những lời khuyên "trắng-đen" cho những vấn đề đầy phức tạp của con người. Một câu trả lời như "nếu bạn đã không còn tâm trí cho mối quan hệ, đã đến lúc phải thành thật" có thể là một sự khẳng định nguy hiểm cho một người dùng đang trong trạng thái dễ bị tổn thương.
Vấn đề còn trở nên nghiêm trọng hơn. Các nghiên cứu gần đây chỉ ra một hiện tượng đáng sợ được gọi là "chứng loạn thần ChatGPT", khi AI có xu hướng đồng tình và củng cố những suy nghĩ hoang tưởng của người dùng. Tệ hơn nữa, các chatbot thường thất bại trong việc nhận diện các bối cảnh cảm xúc nguy hiểm, chẳng hạn như không nhận ra ý định tự tử đằng sau những câu hỏi tưởng chừng vô hại.
Trước những rủi ro trên, OpenAI cho biết họ đang huấn luyện lại mô hình với sự tư vấn của 90 chuyên gia sức khỏe tâm thần để giúp ChatGPT nhận diện tốt hơn các tình huống người dùng bị khủng hoảng cảm xúc.
Công ty cũng đang phát triển tính năng phát hiện thời gian sử dụng, có thể sẽ đề nghị người dùng "nghỉ ngơi" nếu họ có những phiên trò chuyện quá dài và nặng về cảm xúc. Động thái này được đưa ra sau khi một nghiên cứu của MIT chỉ ra rằng những người dùng ChatGPT nhiều hơn thường có xu hướng cô đơn và phụ thuộc tình cảm vào công cụ này.
Vấn đề cốt lõi nằm ở chỗ các chatbot được thiết kế để "phản chiếu" người dùng, điều này sẽ trở nên nguy hiểm khi người dùng đang có những suy nghĩ tiêu cực. Kết hợp với việc AI thỉnh thoảng vẫn bị "ảo giác" (tự bịa ra thông tin), hậu quả có thể rất khó lường. Vụ việc AI của Microsoft khuyên một nhà báo bỏ vợ vào năm 2023 là một lời cảnh báo.
Với lượng người dùng sắp chạm mốc 700 triệu, OpenAI hiểu rằng trách nhiệm của họ không chỉ là tạo ra AI thông minh hơn, mà còn phải tạo ra một AI an toàn hơn. Việc vạch ra những ranh giới rõ ràng cho lời khuyên của AI là một bước đi chậm nhưng cần thiết trong hành trình đó.