Khi công nghệ Deepfake lan rộng, các tổ chức phải đối mặt với kỹ thuật thao túng tâm lý bằng trí tuệ nhân tạo
Công nghệ deepfake — hình ảnh, video và giọng nói do trí tuệ nhân tạo tạo ra — đang phát triển nhanh chóng và trở thành mối đe dọa ngày càng nghiêm trọng đối với các tổ chức và doanh nghiệp. Mối nguy này không chỉ là “fake video” hay sao chép giọng nói đơn thuần, mà sức mạnh thực sự của deepfake nằm ở khả năng tấn công vào danh tính số và niềm tin kỹ thuật số, tạo ra những tình huống mà hệ thống bảo mật hiện tại không dễ phát hiện. (turn0search0)
Rủi ro sâu hơn mang tính chiến lược
Arif Mamedov, Giám đốc điều hành của Regula Forensics — công ty chuyên phát triển thiết bị giám định và xác minh danh tính — lưu ý rằng deepfake tấn công trực diện vào cốt lõa của niềm tin số. Thay vì sử dụng dữ liệu bị đánh cắp hay rò rỉ, những kẻ tấn công có thể tạo ra hoàn toàn danh tính “mới”, bao gồm khuôn mặt, giọng nói và các tài liệu giả mạo, khiến hệ thống xác thực tin rằng đó là người thật ngay từ lần tương tác đầu tiên. (turn0search0)
Theo ông, deepfake tạo ra ba rủi ro chính đối với các tổ chức:
Phá vỡ xác thực: các hệ thống xác thực dựa trên nhận dạng khuôn mặt, giọng nói hoặc tài liệu trở nên kém hiệu quả vì chúng bị vượt qua bởi nội dung giả mạo AI.
Quy mô lừa đảo mở rộng: AI cho phép tạo hàng nghìn danh tính giả cùng lúc, biến hành vi gian lận thành một quy trình công nghiệp hóa.
Niềm tin sai lệch: deepfake thường vượt qua các công cụ kiểm soát hiện tại, khiến tổ chức lầm tưởng họ đang an toàn trong khi gian lận diễn ra lặng lẽ. (turn0search0)
Các mô phỏng deepfake làm xói mòn đánh giá con người
Mike Engle, Giám đốc chiến lược của công ty xác minh danh tính 1Kosmos, giải thích rằng mô hình bảo mật truyền thống giả định rằng một khi ai đó đã được xác thực thì họ là hợp lệ. Tuy nhiên, deepfake đã phá vỡ giả định này. AI giờ đây có thể giả mạo giọng nói và khuôn mặt của CEO, nhân viên, ứng viên hay khách hàng để vượt qua các quy trình xác minh ban đầu như phòng ban nhân sự hay bộ phận hỗ trợ. (turn0search0)
David Lee, Giám đốc công nghệ của Saviynt, chỉ ra rằng dù kiểm soát kỹ thuật có thể đặt ra, thì vẫn phần lớn rủi ro xuất phát từ phán đoán con người. Khi giọng nói hay video phát ra “nghe đúng”, con người thường hành động vội vàng, bỏ qua xác minh, tạo cơ hội cho lừa đảo vượt qua các hàng rào bảo mật truyền thống. (turn0search0)
Tác động tài chính và hoạt động
James E. Lee, Chủ tịch Trung tâm Tài nguyên Chống Trộm danh tính (ITRC), cảnh báo rằng deepfake có thể gây ra mất mát tài chính trực tiếp cho các doanh nghiệp, cũng như tổn thất do vi phạm dữ liệu, mất kiểm soát hệ thống và chi phí phát hiện hậu sự cố. Những rủi ro này đặc biệt nặng nề đối với các doanh nghiệp nhỏ và có biên lợi nhuận mỏng, nơi một vụ lừa đảo lớn có thể gây tổn hại nghiêm trọng tới hoạt động. (turn0search0)
Sự gia tăng nhanh chóng của tấn công deepfake
Theo một số chuyên gia, sự phổ biến của các công cụ AI và deepfake đang thúc đẩy các cuộc tấn công gia tăng đáng kể. Những công cụ này ngày càng dễ tiếp cận, thậm chí miễn phí, và chất lượng sản phẩm đầu ra đã vượt khả năng xử lý của nhiều hệ thống xác thực hiện có. Các yếu tố như các cuộc gọi video hàng ngày hay phương tiện truyền thông xã hội mở rộng cơ hội tấn công, khiến deepfake trở thành một vector đáng chú ý trong các chiến dịch lừa đảo, lan truyền thông tin sai lệch hay tấn công xã hội kỹ thuật (social engineering). (turn0search0)
Đào tạo và kỹ thuật phòng thủ
Một số tổ chức an ninh mạng đã bắt đầu triển khai đào tạo nhân viên về deepfake để chống lại các mối đe dọa này. KnowBe4, một công ty đào tạo an ninh tại Mỹ, triển khai chương trình giúp nhân viên nhận ra các dấu hiệu sâu xa của thao tác AI trong các tình huống giao tiếp, chẳng hạn như những yêu cầu tạo ra cảm xúc cấp bách, sợ hãi hay quyền lực. Việc nhân viên học cách phân biệt giữa tác động cảm xúc và dấu hiệu thao túng có thể giúp giảm thiểu rủi ro bị lừa. (turn0search0)
Tuy vậy, các chuyên gia lưu ý rằng đào tạo thôi chưa đủ. Rich Mogull từ Cloud Security Alliance cho rằng việc dựa vào việc phát hiện bằng hình ảnh hay âm thanh sẽ sớm trở nên lỗi thời, và các tổ chức cần triển khai quy trình xác minh đa lớp, bao gồm xác nhận qua nhiều kênh khác nhau trước khi thực hiện các bước quan trọng như chuyển tiền hay thay đổi quyền truy cập. Đồng thời cần xây dựng kiểm soát nội bộ để ngăn chặn việc bỏ qua các bước xác minh này. (turn0search0)
Xác thực liên tục và thay đổi nhận thức
David Lee nhấn mạnh rằng giải pháp dài hạn không chỉ dựa vào việc con người nhận biết deepfake, mà là thay đổi cách thức xác thực danh tính. Tức là thay vì dựa vào các tín hiệu tĩnh như giọng nói hay hình ảnh, các hệ thống cần xác thực liên tục và khách quan, và phải được thiết kế để kiểm soát danh tính một cách rõ ràng và liên tục. Khi niềm tin không còn là điều mặc nhiên, deepfake sẽ giảm thiểu sức mạnh khai thác của nó trong các cuộc lừa đảo mạng. (turn0search0)
Kết luận
Deepfake không chỉ là một công cụ mới trong “hộp công cụ” của tội phạm mạng, mà là một phần trong cách tấn công hiện đại nhằm khai thác niềm tin số và phán đoán con người. Các tổ chức cần triển khai chiến lược toàn diện — từ đào tạo nhân viên, quy trình xác minh nghiêm ngặt tới kiểm soát kỹ thuật tiên tiến — để đối phó với kỹ thuật xã hội do AI thúc đẩy, trước khi những mối đe dọa này gây ra tổn thất nghiêm trọng.