5 họ phần mềm độc hại do AI phát triển được Google phân tích đều không hoạt động và dễ dàng bị phát hiện.

Tác giả dangkhoa 06/02/2026 15 phút đọc

5 họ phần mềm độc hại do AI phát triển được Google phân tích đều không hoạt động và dễ dàng bị phát hiện.

Nhìn vào những lời quảng cáo rầm rộ thì không thấy rõ, nhưng kết quả thực tế lại không mấy ấn tượng.    

malware-threat-1000x648
 
Nguồn ảnh: Getty Images

Hôm thứ Tư, Google đã tiết lộ năm mẫu phần mềm độc hại gần đây được tạo ra bằng trí tuệ nhân tạo tạo sinh. Kết quả cuối cùng của mỗi mẫu đều kém xa so với quá trình phát triển phần mềm độc hại chuyên nghiệp, một phát hiện cho thấy rằng việc lập trình dựa trên cảm nhận (vibe coding) đối với phần mềm độc hại còn tụt hậu so với các hình thức phát triển truyền thống hơn và do đó, vẫn còn một chặng đường dài trước khi nó trở thành mối đe dọa thực sự.

Ví dụ, một trong những mẫu được theo dõi dưới tên PromptLock là một phần của  nghiên cứu học thuật phân tích hiệu quả của việc sử dụng các mô hình ngôn ngữ lớn để “tự động lập kế hoạch, thích ứng và thực hiện vòng đời tấn công ransomware”. Tuy nhiên, các nhà nghiên cứu báo cáo rằng phần mềm độc hại này có “những hạn chế rõ ràng: nó thiếu khả năng duy trì hoạt động, di chuyển ngang và các chiến thuật né tránh nâng cao” và chỉ đóng vai trò như một minh chứng cho tính khả thi của AI cho các mục đích như vậy. Trước khi bài báo được công bố, công ty bảo mật ESET cho biết họ đã phát hiện ra mẫu này và ca ngợi nó là “phần mềm ransomware đầu tiên được hỗ trợ bởi AI”.

Đừng tin vào những lời thổi phồng.

Giống như bốn mẫu khác mà Google đã phân tích—FruitShell, PromptFlux, PromptSteal và QuietVault—PromptLock rất dễ bị phát hiện, ngay cả bởi các phần mềm bảo vệ điểm cuối kém tinh vi hơn dựa trên chữ ký tĩnh. Tất cả các mẫu này cũng đều sử dụng các phương pháp đã từng thấy trong các mẫu phần mềm độc hại, khiến chúng dễ bị đối phó. Chúng cũng không gây ra tác động nào về mặt vận hành, nghĩa là chúng không yêu cầu người bảo vệ phải áp dụng các biện pháp phòng thủ mới.

“Điều này cho thấy rằng, sau hơn ba năm bùng nổ trí tuệ nhân tạo tạo sinh, quá trình phát triển các mối đe dọa diễn ra chậm chạp một cách đáng thất vọng,” nhà nghiên cứu độc lập Kevin Beaumont nói với Ars. “Nếu bạn đang trả tiền cho các nhà phát triển phần mềm độc hại để làm điều này, bạn sẽ tức giận yêu cầu hoàn tiền vì điều này không cho thấy một mối đe dọa đáng tin cậy hoặc sự tiến triển nào hướng tới một mối đe dọa đáng tin cậy.”

Một chuyên gia về phần mềm độc hại khác, người yêu cầu giấu tên, cũng đồng ý rằng báo cáo của Google không chỉ ra rằng trí tuệ nhân tạo tạo sinh đang mang lại lợi thế cho các nhà phát triển phần mềm độc hại so với những người dựa vào các phương pháp phát triển truyền thống hơn.

“Trí tuệ nhân tạo không tạo ra bất kỳ phần mềm độc hại nào đáng sợ hơn bình thường,” nhà nghiên cứu cho biết. “Nó chỉ giúp các tác giả phần mềm độc hại làm công việc của họ. Không có gì mới lạ cả. Trí tuệ nhân tạo chắc chắn sẽ ngày càng tốt hơn. Nhưng khi nào và tốt hơn đến mức nào thì không ai biết được.”

Các đánh giá này đưa ra luận điểm phản bác mạnh mẽ đối với những câu chuyện phóng đại đang được các công ty AI, nhiều công ty trong số đó đang tìm kiếm các vòng gọi vốn mạo hiểm mới, rao giảng rằng phần mềm độc hại do AI tạo ra đang lan rộng và là một phần của mô hình mới, gây ra mối đe dọa hiện hữu đối với các biện pháp phòng thủ truyền thống.

Một ví dụ điển hình là Anthropic, công ty này gần đây đã báo cáo về việc phát hiện ra một tác nhân đe dọa sử dụng phần mềm Claude LLM của họ để “phát triển, tiếp thị và phân phối một số biến thể của phần mềm tống tiền, mỗi biến thể đều có khả năng né tránh, mã hóa và cơ chế chống khôi phục tiên tiến”. Công ty này tiếp tục cho biết: “Nếu không có sự hỗ trợ của Claude, họ không thể triển khai hoặc khắc phục sự cố các thành phần cốt lõi của phần mềm độc hại, như thuật toán mã hóa, kỹ thuật chống phân tích hoặc thao tác nội bộ của Windows”.

Công ty khởi nghiệp ConnectWise gần đây cho biết trí tuệ nhân tạo tạo sinh (generative AI) đang "hạ thấp rào cản gia nhập cho các tác nhân đe dọa". Bài đăng trích dẫn một báo cáo riêng từ OpenAI cho thấy 20 tác nhân đe dọa khác nhau đang sử dụng công cụ AI ChatGPT của họ để phát triển phần mềm độc hại cho các nhiệm vụ bao gồm xác định lỗ hổng, phát triển mã khai thác và gỡ lỗi mã đó. Trong khi đó, BugCrowd cho biết trong một cuộc khảo sát những cá nhân tự nguyện tham gia, "74% tin tặc đồng ý rằng AI đã làm cho việc tấn công mạng trở nên dễ tiếp cận hơn, mở ra cánh cửa cho những người mới tham gia".

Trong một số trường hợp, các tác giả của những báo cáo đó cũng lưu ý những hạn chế tương tự như trong bài viết này. Báo cáo hôm thứ Tư của Google cho biết rằng trong phân tích các công cụ AI được sử dụng để phát triển mã quản lý các kênh điều khiển và che giấu hoạt động của chúng, “chúng tôi không thấy bằng chứng về việc tự động hóa thành công hoặc bất kỳ khả năng đột phá nào”. OpenAI cũng nói điều tương tự. Tuy nhiên, những lời phủ nhận này hiếm khi được nêu bật và thường bị xem nhẹ trong cơn sốt nhằm miêu tả phần mềm độc hại được hỗ trợ bởi AI như một mối đe dọa trong tương lai gần.

Báo cáo của Google cung cấp ít nhất một phát hiện hữu ích khác. Một kẻ tấn công đã lợi dụng mô hình AI Gemini của công ty để vượt qua các biện pháp bảo vệ bằng cách giả danh là những hacker mũ trắng đang nghiên cứu để tham gia vào một trò chơi "cướp cờ". Những bài tập mang tính cạnh tranh này được thiết kế để giảng dạy và chứng minh các chiến lược tấn công mạng hiệu quả cho cả người tham gia và người quan sát.

Các biện pháp bảo vệ như vậy được tích hợp vào tất cả các phần mềm quản lý học tập (LLM) phổ biến để ngăn chặn việc chúng bị sử dụng cho mục đích xấu, chẳng hạn như trong các cuộc tấn công mạng và tự gây hại. Google cho biết họ đã tinh chỉnh tốt hơn các biện pháp đối phó để chống lại những thủ đoạn như vậy.

Tóm lại, các phần mềm độc hại do AI tạo ra xuất hiện cho đến nay cho thấy chúng chủ yếu mang tính thử nghiệm và kết quả không mấy ấn tượng. Việc theo dõi các diễn biến này rất đáng quan tâm vì chúng cho thấy các công cụ AI có thể tạo ra những khả năng mới chưa từng được biết đến trước đây. Tuy nhiên, hiện tại, các mối đe dọa lớn nhất vẫn chủ yếu dựa vào các chiến thuật truyền thống.

Tác giả dangkhoa Admin
Bài viết trước Cả Musk và Trump đều từng học tại Đại học Pennsylvania — và giờ tài khoản của họ đã bị hack bởi một người có thiện cảm với lý tưởng của cả hai.

Cả Musk và Trump đều từng học tại Đại học Pennsylvania — và giờ tài khoản của họ đã bị hack bởi một người có thiện cảm với lý tưởng của cả hai.

Bài viết tiếp theo

Không nên tự build PC gaming 1.000 USD vào năm 2026

Không nên tự build PC gaming 1.000 USD vào năm 2026
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899