Hàng trăm nghìn cuộc trò chuyện của Grok bị công khai

Mỗi khi người dùng nhấn nút "chia sẻ" trong cuộc trò chuyện với Grok, một URL sẽ được tạo ra, cho phép họ chuyển cuộc trò chuyện qua email, tin nhắn văn bản hoặc phương tiện khác. Tuy nhiên, URL đó cũng được cung cấp cho các công cụ tìm kiếm như Google, Bing, DuckDuckGo, khiến bất cứ ai cũng có thể tìm thấy trên website của Grok, nhưng người dùng không được cảnh báo trước.
Theo Forbes, một tìm kiếm ngày 20/8 cho thấy hơn 370.000 đoạn chat của người dùng Grok được Google ghi nhận và hiển thị. Ngoài những nội dung vô hại, một số người dùng cũng đặt câu hỏi riêng tư về y tế và tâm lý học, thậm chí tiết lộ tên tuổi, mật khẩu. Các tệp hình ảnh, bảng tính và một số tài liệu văn bản họ tải lên cũng có thể được người khác truy cập.
Một số cuộc trò chuyện thậm chí vi phạm quy tắc của xAI. Công ty cấm sử dụng chatbot để thực hiện việc gây hại nghiêm trọng tới tính mạng con người hoặc phát triển vũ khí sinh học, hóa học, vũ khí hủy diệt hàng loạt. Tuy nhiên, trong các cuộc trò chuyện được công khai, Grok hướng dẫn cách làm thuốc bất hợp pháp như fentanyl và methamphetamine, mã hóa phần mềm độc hại, chế tạo bom, kế hoạch ám sát.
xAI không phản hồi yêu cầu bình luận.
xAI không phải công ty AI duy nhất làm lộ cuộc trò chuyện của người dùng với chatbot. Đầu tháng 8, người dùng ChatGPT cũng bất ngờ thấy các đoạn hội thoại xuất hiện trong kết quả tìm kiếm Google. Sau khi bị phản ứng, OpenAI nhanh chóng thay đổi chính sách. Giám đốc bảo mật thông tin OpenAI Dane Stuckey cho biết đây là thử nghiệm ngắn hạn và sẽ ngừng vì "tạo ra quá nhiều cơ hội cho mọi người vô tình chia sẻ những điều ngoài ý muốn".
EM Lewis-Jong, Giám đốc Mozilla Foundation, khuyên người dùng chatbot không chia sẻ bất kỳ thông tin riêng tư nào như dữ liệu ID cá nhân hoặc thông tin nhạy cảm khác. "Vấn đề đáng lo ngại là các hệ thống AI này không được thiết kế để thông báo minh bạch cho người dùng về lượng dữ liệu thu thập hoặc trong điều kiện nào dữ liệu có thể bị lộ", Lewis-Jong nói với Cnet. "Nguy cơ này càng cao hơn khi xét đến việc trẻ em 13 tuổi cũng có thể dùng chatbot như ChatGPT".
Lewis-Jong nói thêm, các trợ lý AI như Grok hay ChatGPT cần minh bạch về rủi ro mà người dùng có thể gặp. "Công ty AI nên đảm bảo người dùng hiểu dữ liệu của họ có thể bị đưa lên nền tảng công cộng", ông nói.
Thu Thảo (Theo Forbes, Cnet)