Hôm thứ Tư, Google đã tiết lộ năm mẫu phần mềm độc hại gần đây được tạo ra bằng trí tuệ nhân tạo tạo sinh. Kết quả cuối cùng của mỗi mẫu đều kém xa so với quá trình phát triển phần mềm độc hại chuyên nghiệp, một phát hiện cho thấy rằng việc lập trình dựa trên cảm nhận (vibe coding) đối với phần mềm độc hại còn tụt hậu so với các hình thức phát triển truyền thống hơn và do đó, vẫn còn một chặng đường dài trước khi nó trở thành mối đe dọa thực sự.
Ví dụ, một trong những mẫu được theo dõi dưới tên PromptLock là một phần của nghiên cứu học thuật phân tích hiệu quả của việc sử dụng các mô hình ngôn ngữ lớn để “tự động lập kế hoạch, thích ứng và thực hiện vòng đời tấn công ransomware”. Tuy nhiên, các nhà nghiên cứu báo cáo rằng phần mềm độc hại này có “những hạn chế rõ ràng: nó thiếu khả năng duy trì hoạt động, di chuyển ngang và các chiến thuật né tránh nâng cao” và chỉ đóng vai trò như một minh chứng cho tính khả thi của AI cho các mục đích như vậy. Trước khi bài báo được công bố, công ty bảo mật ESET cho biết họ đã phát hiện ra mẫu này và ca ngợi nó là “phần mềm ransomware đầu tiên được hỗ trợ bởi AI”.
Đừng tin vào những lời thổi phồng.
Giống như bốn mẫu khác mà Google đã phân tích—FruitShell, PromptFlux, PromptSteal và QuietVault—PromptLock rất dễ bị phát hiện, ngay cả bởi các phần mềm bảo vệ điểm cuối kém tinh vi hơn dựa trên chữ ký tĩnh. Tất cả các mẫu này cũng đều sử dụng các phương pháp đã từng thấy trong các mẫu phần mềm độc hại, khiến chúng dễ bị đối phó. Chúng cũng không gây ra tác động nào về mặt vận hành, nghĩa là chúng không yêu cầu người bảo vệ phải áp dụng các biện pháp phòng thủ mới.
“Điều này cho thấy rằng, sau hơn ba năm bùng nổ trí tuệ nhân tạo tạo sinh, quá trình phát triển các mối đe dọa diễn ra chậm chạp một cách đáng thất vọng,” nhà nghiên cứu độc lập Kevin Beaumont nói với Ars. “Nếu bạn đang trả tiền cho các nhà phát triển phần mềm độc hại để làm điều này, bạn sẽ tức giận yêu cầu hoàn tiền vì điều này không cho thấy một mối đe dọa đáng tin cậy hoặc sự tiến triển nào hướng tới một mối đe dọa đáng tin cậy.”
Một chuyên gia về phần mềm độc hại khác, người yêu cầu giấu tên, cũng đồng ý rằng báo cáo của Google không chỉ ra rằng trí tuệ nhân tạo tạo sinh đang mang lại lợi thế cho các nhà phát triển phần mềm độc hại so với những người dựa vào các phương pháp phát triển truyền thống hơn.
“Trí tuệ nhân tạo không tạo ra bất kỳ phần mềm độc hại nào đáng sợ hơn bình thường,” nhà nghiên cứu cho biết. “Nó chỉ giúp các tác giả phần mềm độc hại làm công việc của họ. Không có gì mới lạ cả. Trí tuệ nhân tạo chắc chắn sẽ ngày càng tốt hơn. Nhưng khi nào và tốt hơn đến mức nào thì không ai biết được.”
