Nhảy đến nội dung
 

Tin tặc đang sử dụng Dark AI để tấn công mạng tinh vi

Sự trỗi dậy của trí tuệ nhân tạo bóng tối (Dark AI) tại khu vực châu Á - Thái Bình Dương (APAC) đang thúc đẩy các cuộc tấn công tinh vi và lén lút hơn.

Đây là một trong những phát hiện quan trọng được công ty an ninh mạng và quyền riêng tư kỹ thuật số toàn cầu Kaspersky chia sẻ tại sự kiện Tuần lễ An ninh mạng APAC 2025 ở Đà Nẵng trong bối cảnh các tác nhân tấn công có xu hướng sử dụng công nghệ AI để gây ra mối đe dọa kỹ thuật số trên khắp thế giới, từ những cuộc tấn công lừa đảo đơn giản đến hoạt động gián điệp mạng do chính phủ bảo trợ.

Ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) khu vực META và APAC của Kaspersky, cho biết: "Từ khi ChatGPT phổ biến toàn cầu vào năm 2023, chúng tôi thấy nhiều ứng dụng hữu ích của AI nhưng kẻ xấu cũng đang sử dụng công cụ này để tăng cường khả năng tấn công. Chúng ta đang bước vào một kỷ nguyên trong an ninh mạng và trong xã hội, nơi AI là lá chắn và Dark AI là thanh gươm".

Dark AI là thuật ngữ chỉ việc triển khai mô hình ngôn ngữ lớn (LLM) không hạn chế tại chỗ hoặc từ xa, hoặc hệ thống chatbot được sử dụng cho mục đích độc hại, phi đạo đức, trái phép. Các hệ thống này hoạt động ngoài cơ chế kiểm soát tiêu chuẩn về an toàn, tuân thủ hoặc quản trị, thường cho phép thực hiện những hành vi như lừa đảo, thao túng, tấn công mạng hoặc lạm dụng dữ liệu mà không bị giám sát.

Dark AI trong thực tế

Ông Lozhkin chia sẻ, hình thức sử dụng AI độc hại phổ biến và nổi tiếng hiện nay có thể kể đến như các Black Hat GPT (GPT Mũ đen), xuất hiện sớm nhất từ khoảng giữa năm 2023. Đây là các mô hình AI được cố tình xây dựng, sửa đổi hoặc sử dụng để thực hiện hoạt động phi đạo đức, bất hợp pháp hay độc hại như tạo mã độc, soạn thảo email lừa đảo đầy thuyết phục cho cuộc tấn công hàng loạt có chủ đích, tạo ra video và giọng nói giả mạo (deepfake), thậm chí hỗ trợ các hoạt động của Đội đỏ (Red Team).

Black Hat GPT có thể là mô hình AI riêng tư hoặc bán riêng tư, ví như WormGPT, DarkBard, FraudGPT và Xanthorox, được thiết kế hoặc điều chỉnh để hỗ trợ tội phạm mạng, lừa đảo và tự động hóa hành vi độc hại.

Bên cạnh ứng dụng mờ ám điển hình của AI, ông Lozhkin cho biết chuyên gia của Kaspersky đang nhận thấy xu hướng còn đáng lo ngại hơn: tác nhân cấp quốc gia tận dụng các mô hình LLM trong chiến dịch của họ.

Ông giải thích: "OpenAI tiết lộ đã ngăn chặn hơn 20 hoạt động gây ảnh hưởng và tấn công mạng ngầm đang cố gắng lạm dụng công cụ AI của họ. Chúng ta có thể dự đoán các tác nhân đe dọa sẽ tạo ra nhiều cách thức thông minh hơn để vũ khí hóa AI tạo sinh, hoạt động trong cả hệ sinh thái mối đe dọa công khai và riêng tư. Chúng ta nên chuẩn bị sẵn sàng cho viễn cảnh đó".

Báo cáo của OpenAI cho thấy tác nhân độc hại đã sử dụng mô hình LLM để tạo ra những danh tính giả mạo thuyết phục, phản hồi mục tiêu trong thời gian thực và sản xuất nội dung đa ngôn ngữ được thiết kế để lừa gạt nạn nhân và vượt qua bộ lọc bảo mật truyền thống.

"AI vốn không phân biệt được đúng sai, mà chỉ là công cụ tuân theo mệnh lệnh. Ngay cả khi biện pháp bảo vệ đã được áp dụng, chúng ta biết rằng các nhóm APT là những kẻ tấn công rất kiên trì. Khi Dark AI dễ tiếp cận và có năng lực hơn, điều quan trọng là tổ chức và cá nhân ở châu Á - Thái Bình Dương phải tăng cường giải pháp an ninh mạng, đầu tư phát hiện mối đe dọa được hỗ trợ bởi chính AI, liên tục cập nhật kiến thức về cách các công nghệ này có thể bị khai thác", ông Lozhkin nói thêm.

 
 
 
logo
CÔNG TY CỔ PHẦN XÂY DỰNG SẢN XUẤT VÀ THƯƠNG MẠI ĐẠI SÀN

GPĐKKD: 0103884103 do sở KH & ĐT TP Hà Nội cấp lần đầu ngày 29/06/2009.

Địa chỉ: Gian số L4-07 tầng 4, nơ-2 - Gold Season,  47 Nguyễn Tuân, Thanh Xuân, Hà Nội

MIỀN BẮC

Địa chỉ Showroom: D11-47 KĐT Geleximco Lê Trọng Tấn, Hà Đông, Hà Nội

Điện thoại  Điện thoại: 1900 98 98 36

MIỀN NAM

Địa chỉ VPGD: 57/1c, Khu phố 1, Phường An Phú Đông, Quận 12, Thành phố Hồ Chí Minh

Điện thoại  Email: info@daisan.vn