Cần xây dựng tiêu chuẩn kỹ thuật để đánh dấu và kiểm chứng video AI, giúp nhận diện dễ dàng các nội dung giả mạo
Gần đây, Sora 2 - phiên bản nâng cấp mới nhất của công cụ tạo video bằng AI do OpenAI phát triển, ra mắt vào cuối tháng 9 - nhanh chóng trở thành hiện tượng toàn cầu nhờ khả năng tạo video sống động và chân thực. Chỉ trong vài ngày, ứng dụng này đã vươn lên dẫn đầu bảng xếp hạng trên App Store, vượt tốc độ tăng trưởng của ChatGPT.
Khó phân biệt thật - giả
Tại Việt Nam, Sora 2 cũng nhanh chóng "gây sốt" trên mạng xã hội. Nhiều người sử dụng công cụ này để tạo video giải trí, hài hước nhưng đồng thời xuất hiện không ít clip phản cảm, gây bức xúc. Chẳng hạn trong bối cảnh cả nước hướng về 4 tỉnh miền Bắc - Thái Nguyên, Lạng Sơn, Bắc Ninh, Cao Bằng - nơi đang chịu ảnh hưởng nặng nề của cơn bão số 11 (Matmo), nhiều video mô phỏng cảnh lũ lụt "chân thực" đến mức khiến người xem giật mình và hoang mang.
Một clip được đăng tải bởi tài khoản TikTok M.K cho thấy người đàn ông đứng giữa dòng lũ khóc lóc nhưng lại yêu cầu người xem "tặng tim và theo dõi kênh", khiến nhiều người bức xúc. Một số video khác mô phỏng cảnh MC truyền hình đứng sát đập thủy điện, thông báo đập vỡ và kêu gọi người dân chạy trốn, trong khi thực tế hoàn toàn không xảy ra; hoặc tái hiện các trò chơi nguy hiểm như thi ăn ớt tươi, ném tổ ong, gây lo lắng cho cộng đồng. Những clip này thu hút hàng triệu lượt xem và lan truyền nhanh chóng trên mạng xã hội. Nhiều người thừa nhận khó nhận ra các video này là sản phẩm của AI, chỉ đến khi chú ý đến watermark (hình mờ) Sora 2 hoặc hashtag #AI mới phát hiện ra.
Sora 2 còn chứng tỏ sức mạnh qua các video giả mạo nổi tiếng. Ví dụ, video đăng trên X đầu tháng 10 mô tả "Sam Altman ăn cắp GPU tại cửa hàng" đã nhanh chóng đạt hơn 11 triệu lượt xem. Khuôn mặt, giọng nói và cử chỉ trong video được mô phỏng chân thực đến mức người xem gần như không thể phân biệt thật - giả.
Anh Lê Xuân Lộc, nhân viên văn phòng tại TP HCM, chia sẻ trải nghiệm bị lừa khi xem một video AI dài 15 giây, mô phỏng cảnh một người bị cá sấu tấn công tại hồ nước. Cảm giác đầu tiên của anh là hoảng sợ trước biểu cảm, cử chỉ giật mình và cách di chuyển của nhân vật, tất cả được tái hiện quá chân thực. Anh Lộc chia sẻ: "Biểu cảm, giọng nói và cách di chuyển của người trong video quá giống thật đến mức kinh ngạc. Tôi phải xem đi xem lại nhiều lần mới nhận ra đó là giả, khi thấy watermark Sora 2 hoặc hashtag #AI, cùng với bình luận của người dùng".
Ngoài Sora 2, thị trường còn có nhiều công cụ tạo video AI với độ chân thực cao khác như Runway Gen-2, Google Veo 3.1, Pika Labs, Luma AI hay Stable Video Diffusion. Khả năng mô phỏng cảnh vật và con người của các công cụ này đặt ra nhiều lo ngại về đạo đức, pháp lý, đồng thời tạo nguy cơ xuất hiện các video phản cảm, xuyên tạc hoặc nhục mạ, dễ gây tranh cãi trong dư luận.
Cần chế tài đủ mạnh
Ông Hoàng Văn Tam, Giám đốc điều hành DigiTech Solutions, cảnh báo các video do AI tạo hiện nay đã đạt mức độ chân thực gần như không thể phân biệt thật - giả đối với người xem bình thường. Nếu không có dấu hiệu nhận biết như nhãn dán hay hình mờ, những video giả mạo này có thể bị lợi dụng để lừa đảo, phát tán thông tin sai lệch, gây bạo lực mạng, xâm hại danh dự cá nhân, đồng thời gây tổn thương tinh thần nghiêm trọng.
Theo ông Tam, Deepfake hiện không chỉ xuất hiện trên mạng xã hội mà còn len lỏi vào quảng cáo, truyền thông, thậm chí trong các tin tức chưa được kiểm chứng, khiến người dùng khó bảo vệ bản thân. Nhiều người vô tình chia sẻ video chưa xác thực, trở thành công cụ lan truyền thông tin sai lệch mà bản thân không hay biết. "Người dùng cần kiểm tra nguồn gốc video, chỉ tiếp nhận thông tin từ các kênh uy tín và tuyệt đối không chia sẻ những nội dung chưa xác thực. Phụ huynh và nhà trường cần chú ý hướng dẫn trẻ em, học sinh cách nhận biết video giả mạo, giúp các em tránh trở thành nạn nhân của thông tin sai lệch trên mạng" - ông Tam khuyến cáo.
Theo ông Lê Hồng Đức, nhà sáng lập Công ty TNHH OneAds Digital, ngoài xử phạt nghiêm các đơn vị, cá nhân tạo video giả mạo, cơ quan quản lý cần xây dựng tiêu chuẩn kỹ thuật để đánh dấu và kiểm chứng video AI, giúp người dùng dễ nhận diện nội dung do máy tạo ra. Ông nhấn mạnh việc trang bị kỹ năng sử dụng công nghệ và nhận diện video giả mạo là cần thiết, giúp mọi người hiểu cách AI vận hành và tự bảo vệ bản thân cùng thông tin cá nhân trước các chiêu trò lừa đảo.
Theo luật sư Bùi Thị Ánh Tuyết (Đoàn Luật sư TP HCM), Nghị định 14/2022 sửa đổi, bổ sung Nghị định 15/2020 quy định rõ hành vi lợi dụng mạng xã hội để đăng tải thông tin bịa đặt có thể bị xử phạt hành chính 10 - 20 triệu đồng. Ngoài phạt tiền, người vi phạm còn phải gỡ bỏ thông tin sai sự thật hoặc gây nhầm lẫn. Đồng thời, cá nhân dàn dựng nội dung sai sự thật để "câu like" có thể bị xử lý hình sự với mức phạt tiền 30 - 200 triệu đồng hoặc phạt tù 6 tháng đến 3 năm. Trong các trường hợp nghiêm trọng, mức phạt có thể lên đến 1 tỉ đồng và phạt tù từ 2 - 7 năm.















