4 lý do khiến AI trở nên nguy hiểm trong tấn công giả mạo

17/01 10:58
 

Sự phát triển vượt bậc của AI (trí tuệ nhân tạo) làm cho các cuộc tấn công giả mạo được cá nhân hóa, khiến các chuyên gia an ninh mạng...

Sự phát triển vượt bậc của AI (trí tuệ nhân tạo) làm cho các cuộc tấn công giả mạo được cá nhân hóa, khiến các chuyên gia an ninh mạng cũng có thể mắc bẫy.

Một nghiên cứu mới đây của Công ty an ninh mạng Kaspersky cho thấy, số vụ tấn công an ninh mạng các tổ chức phải đối mặt đã tăng gần 49% trong 12 tháng qua.

Mối đe dọa phổ biến nhất đến từ các vụ lừa đảo phishing (tấn công giả mạo). Một nửa số người tham gia khảo sát (50%) dự đoán số lượng các vụ tấn công lừa đảo sẽ tăng đáng kể, trong bối cảnh tội phạm mạng ngày càng lợi dụng AI nhiều hơn.

Các chuyên gia an ninh mạng cũng chỉ ra 4 lý do khiến các vụ lừa đảo theo phương thức phishing trở nên nguy hiểm, khó lường hơn do AI.

Các vụ tấn công lừa đảo được cá nhân hóa nhờ AI

Trước đây, các vụ tấn công lừa đảo chủ yếu dựa vào việc phát tán những tin nhắn rập khuôn đến hàng nghìn người, nhằm dụ dỗ một số người sa vào bẫy. AI đã thay đổi điều này bằng cách tạo ra những email lừa đảo được cá nhân hóa một cách tinh vi trên quy mô lớn.

Các công cụ tích hợp AI có thể sử dụng thông tin công khai của cá nhân trên mạng xã hội, trang tuyển dụng hoặc website của các công ty, từ đó tạo ra những email được thiết kế riêng, đúng vai trò, sở thích và phong cách giao tiếp của từng cá nhân.

Ví dụ, một CFO có thể nhận được email lừa đảo sao chép giọng điệu và phong cách tin nhắn từ CEO, thậm chí email còn đề cập đến các sự kiện gần đây của công ty một cách chính xác. Mức độ tùy chỉnh tinh vi này khiến nhân viên rất khó phân biệt giữa tin nhắn thực với tin nhắn lừa đảo.

AI khiến Deepfake trở nên nguy hiểm hơn

Công nghệ deepfake trong AI cũng trở thành vũ khí lợi hại, được tội phạm mạng sử dụng trong các chiêu trò lừa đảo.

Kẻ tấn công lợi dụng công nghệ này để tạo ra các đoạn âm thanh và video giả mạo, mô phỏng giọng nói, ngoại hình của các nhà lãnh đạo, quản lý với mức độ chính xác đến kinh ngạc.

Ví dụ, trong một trường hợp được ghi nhận, kẻ tấn công đã sử dụng deepfake để giả mạo nhiều nhân viên trong một cuộc họp trực tuyến, qua đó thuyết phục một nhân viên chuyển khoản số tiền lên tới khoảng 25,6 triệu USD.

Trong bối cảnh công nghệ deepfake ngày càng phát triển, các cuộc tấn công dưới hình thức này được dự đoán sẽ ngày một tràn lan và tinh vi hơn.

AI giúp kẻ tấn công vượt qua các phương thức bảo mật truyền thống

Tội phạm mạng có thể lợi dụng AI để đánh lừa các hệ thống lọc email truyền thống. Bằng cách phân tích và mô phỏng các mẫu email hợp pháp, email lừa đảo tạo bằng AI có thể vượt qua vòng kiểm tra phần mềm bảo mật.

Cùng với đó, các thuật toán học máy còn có thể kiểm tra và tinh chỉnh lừa đảo trong thời gian thực, nâng cao tỷ lệ “trót lọt” và biến chiêu thức lừa đảo ngày càng trở nên tinh vi.

Các chuyên gia cũng có thể mắc bẫy của AI

Ngay cả những nhân viên an ninh mạng giàu kinh nghiệm cũng trở thành nạn nhân trong các vụ tấn công lừa đảo tinh vi.

Mức độ chân thực và cá nhân hóa của các nội dung do AI tạo ra đôi khi lấn át sự hoài nghi, vốn là yếu tố giúp các chuyên gia giàu kinh nghiệm luôn thận trọng.

Hơn nữa, các vụ tấn công này thường đánh vào yếu tố tâm lý con người, chẳng hạn như sự khẩn cấp, sợ hãi hoặc quyền lực, tạo áp lực buộc nhân viên hành động mà không kiểm tra kỹ tính xác thực của yêu cầu.

Đọc bài gốc tại đây.