
(Nguồn ảnh: Shutterstock / Ryzhi)
Trí tuệ nhân tạo đang làm thay đổi cách thức tội phạm mạng thao túng hành vi con người.
Những dấu hiệu nhận biết email lừa đảo trước đây như cách diễn đạt vụng về, lời chào chung chung và định dạng cẩu thả, đang được thay thế bằng những thông điệp trau chuốt, phù hợp với ngữ cảnh, được tạo ra bởi các mô hình ngôn ngữ lớn.
Công nghệ Deepfake hiện nay thậm chí có thể sao chép giọng nói của một CEO để tạo ra một video thuyết phục chỉ trong vài phút. Kỹ thuật này đã và đang được sử dụng để lừa đảo các tổ chức hàng chục triệu đô la.
Trong báo cáo "Kỹ thuật xã hội và yếu tố con người" của LevelBlue, 59% các tổ chức cho biết nhân viên ngày càng khó phân biệt giữa các tương tác thật và giả.
Trong khi đó, các đối thủ ngày càng kết hợp kỹ thuật xã hội dựa trên trí tuệ nhân tạo với việc xâm nhập chuỗi cung ứng, đánh cắp thông tin đăng nhập và trinh sát tự động.
Nhìn chung, những yếu tố này đang biến vấn đề thao túng tâm lý từ một vấn đề cá nhân thành một rủi ro kinh doanh mang tính hệ thống.
Khoảng cách ngày càng lớn
Khoảng cách giữa nhận thức và hành động ngày càng nới rộng. Trong khi các biện pháp kiểm soát kỹ thuật tiếp tục được cải tiến, hành vi con người vẫn là điểm yếu dễ bị khai thác nhất.
Xét cho cùng, việc vá lỗi hệ thống CNTT dễ hơn nhiều so với việc vá lỗi con người. Tin tặc đã nhận ra rằng việc lừa gạt một người thường dễ hơn việc tấn công hệ thống, và trí tuệ nhân tạo (AI) mang lại cho chúng tốc độ và độ chính xác để làm cả hai việc đó.
Lợi thế chiến thuật mới của AI
Khả năng chuyển đổi phương thức tấn công linh hoạt: Kẻ tấn công có thể bắt đầu bằng một email vô hại, đo lường mức độ tương tác (lượt mở, lượt nhấp), sau đó chuyển hướng ngay trong cùng một chuỗi email để phát tán nội dung độc hại bằng giọng nói hoặc video. Sự linh hoạt này khiến cho việc huấn luyện nâng cao nhận thức theo lối mòn trở nên kém hiệu quả hơn.
Xây dựng hình ảnh cá nhân trên quy mô lớn: Bằng cách sử dụng dữ liệu tổng hợp từ mạng xã hội và các vụ rò rỉ thông tin, kẻ thù có thể xây dựng các hình ảnh cá nhân kỹ thuật số đáng tin cậy, hoàn chỉnh với tên, vai trò và giọng điệu, và sử dụng chúng để xâm nhập vào các tổ chức.
Sự leo thang của Deepfake: Âm thanh hoặc video do AI tạo ra có thể được chèn vào giữa cuộc trò chuyện: “Xin lỗi, tôi để điện thoại ở phòng khác - hãy gọi cho tôi theo số này,” hoặc “Đây là hướng dẫn chuyển khoản đã được cập nhật.” Sự quen thuộc của giọng nói hoặc khuôn mặt quen thuộc có thể khiến nhân viên mất cảnh giác.
Gợi ý mang tính đối kháng và chuỗi gợi ý: Kẻ tấn công tinh chỉnh các gợi ý do AI tạo ra một cách lặp đi lặp lại: “Hãy làm cho nó nghe trang trọng hơn,” hoặc “Thêm một dòng về hiệu suất hàng quý.” Mỗi lần lặp lại làm cho thông điệp trở nên đáng tin hơn và nhắm mục tiêu chính xác hơn.
Những kỹ thuật này làm mờ đi ranh giới giữa "bình thường" và "chuẩn mực" trong giao tiếp kỹ thuật số. Ngay cả các chuyên gia bảo mật giàu kinh nghiệm cũng khó có thể phân biệt được đâu là thật và đâu là giả.
Vì sao con người vẫn là bản lề
Các biện pháp phòng vệ kỹ thuật như bộ lọc email, kiến trúc không tin tưởng (zero-trust architecture ) và phát hiện bất thường vẫn rất cần thiết, nhưng các cuộc tấn công dựa trên trí tuệ nhân tạo (AI) lại khai thác khả năng phán đoán chứ không phải mã lập trình. Mọi chiến dịch tấn công phi kỹ thuật (social engineering) cuối cùng đều dựa vào quyết định của con người khi nhấp chuột, chia sẻ, chấp thuận hoặc ủy quyền.
Các tổ chức kiên cường hiểu rằng bảo mật thực sự bao gồm cả việc khóa hệ thống và tích hợp khả năng phán đoán vào quy trình làm việc. Vậy làm thế nào để đạt được sự cân bằng đó?
1. Sự tham gia của lãnh đạo cấp cao và nhận thức về AI
Tấn công phi kỹ thuật dựa trên trí tuệ nhân tạo (AI) cần được xem là mối đe dọa nghiêm trọng đối với hoạt động kinh doanh. Các nhà quản lý cấp cao, lãnh đạo kỹ thuật và nhóm DevOps đều cần nắm rõ cách AI có thể nhắm mục tiêu vào API, hành trình khách hàng hoặc các quy trình nội bộ.
Khi hội đồng quản trị tích hợp rủi ro AI vào quản trị cùng với khả năng mở rộng và tuân thủ, đầu tư vào con người sẽ tăng lên để ngang bằng với đầu tư vào công nghệ.
2. Mô phỏng chuỗi tấn công của AI
Các bài kiểm tra tấn công giả mạo hàng năm không còn phản ánh đúng bối cảnh mối đe dọa hiện nay. Các bài tập tấn công giả lập hiện đại nên mô phỏng các cuộc tấn công được hỗ trợ bởi trí tuệ nhân tạo - kết hợp email, lời nhắc bằng giọng nói và video giả mạo (deepfake) trong cùng một môi trường mô phỏng.
Theo dõi các điểm dữ liệu như thời điểm người dùng phát hiện ra sự bất thường và cách họ phản ứng với tình trạng lừa dối ngày càng leo thang. Điều này giúp xác định nơi cần đào tạo hoặc củng cố quy trình nhất.
3. Kết hợp phát hiện AI với bộ lọc của con người
Các tổ chức nên kết hợp các công cụ phát hiện dựa trên trí tuệ nhân tạo như deepfake, nhận diện giọng nói bất thường và phân tích hành vi, với quy trình xác minh thủ công bài bản.
Nội dung đáng ngờ sẽ kích hoạt các bước kiểm tra phản hồi hoặc xác nhận ngoài luồng. Trí tuệ nhân tạo có thể phát hiện các điểm bất thường, nhưng con người cung cấp ngữ cảnh và ý định. Cùng nhau, chúng tạo ra một vòng bảo vệ khép kín.
4. So sánh hiệu suất với đối tượng bên ngoài và đào tạo theo hướng phát triển
Các tác nhân đe dọa liên tục đổi mới và hệ thống phòng thủ cũng phải làm như vậy. Hợp tác với các chuyên gia an ninh mạng để thực hiện các đánh giá "đội tấn công mô phỏng" định kỳ giúp xác định các điểm mù và cập nhật đào tạo dựa trên các chiến thuật AI mới nổi.
Quá trình học tập liên tục, theo từng mô-đun, được cập nhật hàng quý với dữ liệu về các mối đe dọa thực tế, đảm bảo các nhóm luôn nắm bắt được các kỹ thuật mới nhất thay vì những chiến thuật lỗi thời của năm ngoái.
Xây dựng khả năng phục hồi của con người trong kỷ nguyên trí tuệ nhân tạo
Trí tuệ nhân tạo tạo sinh đã làm mờ ranh giới giữa cái chân thực và cái nhân tạo, nhưng nó cũng khẳng định lại tầm quan trọng của sự phán đoán của con người. Công nghệ có thể phát hiện ra những bất thường, nhưng chỉ con người mới có thể quyết định liệu có nên tin tưởng, xác minh hay hành động hay không.
Những tổ chức sẽ duy trì được vị thế dẫn đầu là những tổ chức nhận ra sự tương tác này: kết hợp các biện pháp phòng thủ dựa trên trí tuệ nhân tạo với một văn hóa khuyến khích sự tò mò, kiểm chứng và tư duy phản biện.
An ninh mạng không chỉ là cuộc chạy đua với công nghệ; đó còn là cuộc chạy đua nhằm củng cố yếu tố con người cốt lõi.