Dưới đây là cách thức hoạt động của các cuộc tấn công lừa đảo qua điện thoại bằng deepfake và lý do tại sao chúng khó bị phát hiện.

Tác giả tanthanh 10/02/2026 12 phút đọc

Đến bây giờ, bạn có thể đã nghe nói về các cuộc gọi gian lận sử dụng AI để sao chép giọng nói của những người mà người nhận cuộc gọi biết. Thông thường, kết quả là những gì nghe giống như một đứa cháu, CEO hoặc đồng nghiệp làm việc mà bạn đã biết trong nhiều năm báo cáo một vấn đề khẩn cấp cần hành động ngay lập tức, nói rằng hãy chuyển tiền, tiết lộ thông tin đăng nhập hoặc truy cập một trang web độc hại.

Các nhà nghiên cứu và các quan chức chính ph đã được cảnh báo về mối đe dọa trong nhiều năm, với Cơ quan An ninh mạng và Cơ sở hạ tầng nói rằng vào năm 2023, các mối đe dọa từ deepfake và các dạng phương tiện tổng hợp khác đã tăng lên “theo cấp số nhân.” Năm ngoái, bộ phận bảo mật Mandiant của Google báo cáo rằng các cuộc tấn công như vậy đang được thực hiện với độ chính xác “kỳ lạ, tạo ra các kế hoạch lừa đảo thực tế hơn.”

Giải phẫu của một cuộc gọi lừa đảo deepfake

Vào thứ Tư, công ty bảo mật Group-IB phác thảo các bước cơ bản liên quan đến việc thực hiện các loại tấn công này. Điều rút ra là chúng dễ sinh sản ở quy mô lớn và có thể là thách thức để phát hiện hoặc đẩy lùi.

deepfake-vishing-workflow-1024x491
Quy trình làm việc của một cuộc tấn công deepfake vishing. Credit: Group-IB
Các bước cơ bản là:

Thu thập mẫu giọng nói của người sẽ bị mạo danh. Các mẫu ngắn tới ba giây đôi khi là đủ. Chúng có thể đến từ video, cuộc họp trực tuyến hoặc cuộc gọi thoại trước đó.

Đưa mẫu vào công cụ tổng hợp giọng nói dựa trên AI, chẳng hạn như Tacotron 2 của Google, Vall-E của Microsoft hoặc các dịch vụ từ ElevenLabs và Resemble AI. Những công cụ này cho phép kẻ tấn công sử dụng giao diện chuyển văn bản thành giọng nói để tạo ra các từ do người dùng chọn với giọng nói và tiếng giật đàm thoại của người bị mạo danh. Hầu hết các dịch vụ đều cấm sử dụng deepfake như vậy, nhưng như Báo cáo người tiêu dùng tìm thấy trong tháng ba, các biện pháp bảo vệ mà các công ty này áp dụng để hạn chế hoạt động này có thể được bỏ qua với nỗ lực tối thiểu.

Một bước tùy chọn là giả mạo số thuộc về người hoặc tổ chức bị mạo danh. Những loại kỹ thuật này đã được sử dụng trong nhiều thập kỷ.

Tiếp theo, những kẻ tấn công bắt đầu cuộc gọi lừa đảo. Trong một số trường hợp, giọng nói nhân bản sẽ tuân theo một kịch bản. Trong các cuộc tấn công phức tạp hơn khác, lời nói giả mạo được tạo ra trong thời gian thực, sử dụng phần mềm chuyển đổi hoặc che giấu giọng nói. Các cuộc tấn công thời gian thực có thể thuyết phục hơn vì chúng cho phép kẻ tấn công trả lời các câu hỏi mà người nhận hoài nghi có thể hỏi.

“Mặc dù việc mạo danh theo thời gian thực đã được chứng minh bằng các dự án nguồn mở và API thương mại, nhưng việc đánh lừa deepfake trong tự nhiên theo thời gian thực vẫn còn hạn chế,” Group-IB cho biết. “Tuy nhiên, với những tiến bộ liên tục về tốc độ xử lý và hiệu quả của mô hình, việc sử dụng thời gian thực dự kiến sẽ trở nên phổ biến hơn trong tương lai gần.”

Trong cả hai trường hợp, kẻ tấn công sử dụng giọng nói giả để tạo ra sự giả vờ cần người nhận hành động ngay lập tức. Câu chuyện có thể mô phỏng một cháu gái trong tù đang khẩn trương tìm kiếm tiền bảo lãnh, một CEO chỉ đạo ai đó trong bộ phận tài khoản phải trả chuyển tiền để trang trải chi phí quá hạn hoặc một nhân viên CNTT hướng dẫn nhân viên đặt lại mật khẩu sau một hành vi vi phạm có mục đích.

Thu thập tiền mặt, thông tin xác thực bị đánh cắp hoặc tài sản khác. Thông thường, một khi hành động được thực hiện, nó không thể đảo ngược.

Khiên xuống

Bài đăng của Mandiant cho thấy các thành viên trong đội an ninh của họ thực hiện hành vi lừa đảo như vậy tương đối dễ dàng trong một bài tập mô phỏng của đội đỏ, được thiết kế để kiểm tra khả năng phòng thủ và huấn luyện nhân viên. Các nhóm đỏ đã thu thập các mẫu giọng nói có sẵn công khai của một người nào đó trong tổ chức mục tiêu đã yêu cầu nhân viên báo cáo cho họ. Sau đó, các đội đỏ đã sử dụng thông tin có sẵn công khai để xác định những nhân viên có nhiều khả năng làm việc dưới quyền người bị làm giả nhất và gọi cho họ. Để làm cho cuộc gọi trở nên thuyết phục hơn, nó đã sử dụng sự ngừng hoạt động thực sự của một dịch vụ VPN như một sự giả vờ để nhân viên hành động ngay lập tức.

“Do tin tưởng vào giọng nói trên điện thoại, nạn nhân đã bỏ qua lời nhắc bảo mật từ cả Microsoft Edge và Windows Defender SmartScreen, vô tình tải xuống và thực thi tải trọng độc hại đã chuẩn bị trước lên máy trạm của họ,” Mandiant cho biết. “Việc kích nổ thành công trọng tải đánh dấu sự hoàn thành của cuộc tập trận, cho thấy sự dễ dàng đáng báo động mà việc giả mạo giọng nói AI có thể tạo điều kiện thuận lợi cho việc vi phạm một tổ chức.”

Các biện pháp phòng ngừa để ngăn chặn những trò gian lận như vậy thành công có thể đơn giản như các bên đồng ý với một từ hoặc cụm từ được chọn ngẫu nhiên mà người gọi phải cung cấp trước khi người nhận tuân thủ yêu cầu. Người nhận cũng có thể kết thúc cuộc gọi và gọi lại cho người đó theo số được biết là thuộc về người gọi. Nhưng tốt nhất là làm theo cả hai bước.

Cả hai biện pháp phòng ngừa này đều yêu cầu người nhận phải giữ bình tĩnh và cảnh giác, bất chấp cảm giác cấp bách chính đáng sẽ nảy sinh nếu kịch bản giả vờ là có thật. Điều này thậm chí có thể khó khăn hơn khi người nhận mệt mỏi, bị giãn quá mức hoặc không ở trạng thái tốt nhất. Và vì lý do đó, cái gọi là các cuộc tấn công vishing—cho dù có hỗ trợ AI hay không—aren't có khả năng biến mất sớm.

Tác giả tanthanh Admin
Bài viết trước Google đã phát hiện ra một chiêu trò lừa đảo mới—và cũng trở thành nạn nhân của nó.

Google đã phát hiện ra một chiêu trò lừa đảo mới—và cũng trở thành nạn nhân của nó.

Bài viết tiếp theo

Lỗ hổng bảo mật SharePoint với mức độ nghiêm trọng 9.8 đang bị khai thác trên toàn cầu.

Lỗ hổng bảo mật SharePoint với mức độ nghiêm trọng 9.8 đang bị khai thác trên toàn cầu.
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899