-
-
-
Tổng tiền thanh toán:
-

Trí tuệ nhân tạo biến tướng thành "Dark AI" – Vũ khí mới của tội phạm mạng
08/18/2025 15:12:09
Đăng bởi Đinh Tuấn Minh
(0) bình luận
Tại Tuần lễ An ninh mạng diễn ra đầu tháng 8 ở Đà Nẵng, ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích Toàn cầu (GReAT) của Kaspersky, đã đưa ra lời cảnh báo:
"Chúng ta đang bước vào kỷ nguyên mới của an ninh mạng và xã hội, nơi AI là lá chắn phòng thủ, nhưng Dark AI lại bị biến thành thứ vũ khí nguy hiểm trong tay tội phạm mạng."
Dark AI là gì?
Dark AI là khái niệm chỉ việc sử dụng các mô hình ngôn ngữ lớn (LLMs) ngoài tầm kiểm soát và không tuân thủ tiêu chuẩn an toàn. Nếu như các nền tảng AI chính thống có cơ chế kiểm duyệt, thì Dark AI lại bị lợi dụng để:
-
Viết mã độc, email lừa đảo tinh vi.
-
Tạo giọng nói giả, video deepfake.
-
Thực hiện các chiến dịch tấn công mạng tự động hóa.
Từ giữa năm 2023, nhiều biến thể "Black Hat GPT" đã xuất hiện như WormGPT, DarkBard, FraudGPT, Xanthorox – tất cả đều được thiết kế phục vụ cho hoạt động tội phạm mạng.
Nguy cơ từ tội phạm mạng và cả các nhóm có tổ chức
Theo Kaspersky, không chỉ giới hacker, mà thậm chí một số nhóm tấn công có sự hậu thuẫn của nhà nước cũng đang bắt đầu khai thác sức mạnh của các mô hình AI.
Thực tế, OpenAI từng chặn hơn 20 chiến dịch lạm dụng công cụ AI để phát tán thông tin sai lệch và tổ chức tấn công mạng. Với Dark AI, tin tặc có thể tạo hàng loạt nội dung giả mạo đa ngôn ngữ, vượt qua lớp bảo mật truyền thống và dễ dàng đánh lừa người dùng.
"AI không tự biết đúng sai"
Ông Lozhkin nhấn mạnh: "AI vốn dĩ không có khái niệm đúng sai, nó chỉ làm theo chỉ dẫn."
Vì thế, khi công cụ Dark AI lan rộng, cả cá nhân và tổ chức đều phải:
-
Tăng cường kỷ luật an ninh mạng.
-
Đầu tư giải pháp phát hiện mối đe dọa do AI hỗ trợ.
-
Liên tục cập nhật kiến thức để tránh trở thành nạn nhân.
Giải pháp đối phó
Để đối phó với mối nguy này, Kaspersky khuyến nghị các doanh nghiệp siết chặt kiểm soát truy cập, đào tạo nhân viên nhằm hạn chế tình trạng “Shadow AI” – tức việc nhân sự nội bộ tự ý sử dụng AI ngoài tầm giám sát, dễ dẫn tới rò rỉ dữ liệu. Các biện pháp khác bao gồm xây dựng trung tâm điều hành an ninh mạng (SOC) và triển khai những giải pháp bảo mật thế hệ mới, có khả năng nhận diện các mối đe dọa được tạo ra bởi AI.
Bức tranh thực tế càng đáng lo ngại khi báo cáo An ninh mạng năm 2025 của Cisco cho thấy 62% tổ chức tại Việt Nam thừa nhận chưa tự tin trong việc phát hiện nhân viên sử dụng AI ngoài tầm kiểm soát. Dù có tới 44% nhân sự đã dùng các công cụ GenAI được phê duyệt, nhưng 40% bộ phận CNTT lại không nắm rõ cách thức nhân viên đang tương tác với AI. Điều này cho thấy thách thức mà Dark AI mang lại không chỉ còn dừng ở lý thuyết, mà đã và đang trở thành mối nguy thực tế trong môi trường số hiện nay.
Dark AI không còn là khái niệm xa vời mà đã trở thành một thách thức an ninh mạng thực tế. Vấn đề không phải AI tốt hay xấu, mà là cách con người quản lý và sử dụng nó.