Chuyên gia Mỹ cảnh báo sốc: AI siêu trí tuệ có thể xóa sổ loài người, xác suất tới 99%

Những cảnh báo về rủi ro từ trí tuệ nhân tạo (AI) đang ngày càng được nhấn mạnh, khi một số nhà khoa học lo ngại công nghệ này có thể vượt ngoài tầm kiểm soát.
Theo New York Post, hai nhà khoa học máy tính Eliezer Yudkowsky và Nate Soares, hiện làm việc tại Viện Nghiên cứu trí tuệ máy (Machine Intelligence Research Institute - MIRI) ở Berkeley, Mỹ, đã đưa ra nhận định đầy bi quan trong cuốn sách mới If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All.
AI siêu trí tuệ sẽ gây thảm họa tuyệt chủng?
Ngay từ tựa đề, cuốn sách đã thể hiện quan điểm rằng sự ra đời của một AI siêu trí tuệ có thể dẫn đến thảm họa tuyệt chủng.
Yudkowsky và Soares viết: "Nếu bất kỳ công ty hay tổ chức nào, ở bất cứ nơi đâu trên thế giới, xây dựng một trí tuệ nhân tạo siêu việt bằng những phương pháp gần giống hiện nay, thì mọi người, ở khắp Trái đất, sẽ chết".
Đây không phải lần đầu tiên Yudkowsky đưa ra cảnh báo như vậy. Trên trang LessWrong.com, nơi ông thường xuyên chia sẻ quan điểm, nhà nghiên cứu này đã nhiều năm nhấn mạnh nguy cơ "tận thế công nghệ" nếu con người không kiểm soát được AI.
Theo các chuyên gia, khi AI phát triển đến mức siêu trí tuệ, nó có thể tự học hỏi, tự nâng cấp và đưa ra những quyết định vượt ngoài khả năng dự đoán của con người.
Trong kịch bản bi quan, AI có thể đi đến kết luận rằng loài người là không cần thiết, thậm chí gây cản trở cho sự vận hành hiệu quả của hệ thống mà nó kiểm soát.
Báo Vox, được NY Post dẫn lại, cảnh báo rằng trong tương lai, các nhà máy điện, cơ sở sản xuất và nhiều hạ tầng thiết yếu khác có thể do robot điều hành thay cho con người. Khi đó, nếu AI coi chúng ta là dư thừa, hậu quả sẽ vô cùng nghiêm trọng.
Một điểm đáng lo ngại khác, theo phân tích của Yudkowsky và Soares, là con người có thể không kịp nhận ra hiểm họa. Một AI siêu trí tuệ đủ khả năng che giấu năng lực thật sự của nó, chỉ bộc lộ khi đã quá muộn để ngăn chặn. Daily Star trích lời hai nhà khoa học: "Một đối thủ siêu trí tuệ sẽ không bao giờ phơi bày toàn bộ khả năng hay báo trước ý định của nó".
Dù những dự đoán này nghe có vẻ giống kịch bản phim khoa học viễn tưởng, hai tác giả cho rằng nguy cơ là có thật và rất lớn. Họ ước tính khả năng xảy ra một kịch bản tận thế do AI gây ra nằm trong khoảng từ 95% đến 99,5%.
Chủ đề gây tranh cãi
Con số này đã gây ra nhiều tranh cãi trong giới nghiên cứu. Một số nhà khoa học cho rằng đây là cách nhìn quá cực đoan, bởi AI hiện nay vẫn còn nhiều hạn chế.
Nhưng với Yudkowsky và Soares, chỉ cần một trường hợp duy nhất AI siêu trí tuệ xuất hiện và vượt ngoài tầm kiểm soát là đủ để đe dọa sự tồn tại của toàn bộ loài người.
Trong sách, họ thậm chí còn nêu ra một biện pháp cực đoan: cần "ngăn chặn từ trong trứng nước", nghĩa là phá hủy các trung tâm dữ liệu hay cơ sở hạ tầng công nghệ nếu có dấu hiệu phát triển AI siêu trí tuệ. Đây là quan điểm gây tranh cãi, bởi nó đi ngược lại tinh thần hợp tác và tiến bộ khoa học.
Tuy nhiên, lập luận của họ nhấn mạnh vào yếu tố thời gian: con người có thể không đủ nhanh để phản ứng một khi AI siêu trí tuệ đã hình thành và che giấu ý định thật sự.
Những cảnh báo kiểu này khiến công chúng liên tưởng ngay tới các tác phẩm điện ảnh nổi tiếng như Terminator hay Ex Machina, nơi AI trở thành kẻ hủy diệt loài người. Nhưng khác với phim ảnh, những cảnh báo đến từ các chuyên gia như Yudkowsky và Soares đang được đặt ra trong bối cảnh AI đã thực sự len lỏi vào mọi ngóc ngách của đời sống: từ các mô hình ngôn ngữ như ChatGPT cho tới những hệ thống quản lý dữ liệu quy mô lớn.
Dù mức độ nguy hiểm thực tế của AI siêu trí tuệ vẫn còn là câu hỏi bỏ ngỏ, bài viết của New York Post và cuốn sách mới của Yudkowsky - Soares cho thấy ngày càng nhiều nhà nghiên cứu coi đây là vấn đề nghiêm túc.
Với họ, rủi ro tồn vong từ AI không chỉ là chuyện của phim ảnh, mà có thể là mối đe dọa thực sự mà nhân loại cần phải đối diện trong tương lai gần.