Các nhà nghiên cứu đặt câu hỏi về tuyên bố của Anthropic rằng cuộc tấn công được hỗ trợ bởi AI có tính tự chủ 90%

Tác giả tanthanh 06/02/2026 15 phút đọc

Các nhà nghiên cứu từ Anthropic cho biết gần đây họ đã quan sát thấy “chiến dịch gián điệp mạng do AI dàn dựng được báo cáo lần đầu tiên ” sau khi phát hiện tin tặc nhà nước Trung Quốc sử dụng công cụ AI Claude của công ty trong một chiến dịch nhắm vào hàng chục mục tiêu. Các nhà nghiên cứu bên ngoài được đo lường nhiều hơn trong việc mô tả tầm quan trọng của khám phá.

Anthropic đã công bố các báo cáo vào thứ Năm đâyđây. Vào tháng 9, các báo cáo cho biết, Anthropic đã phát hiện ra một chiến dịch gián điệp cực kỳ tinh vi,“do một nhóm do nhà nước Trung Quốc bảo trợ thực hiện và đã sử dụng Mã Claude để tự động hóa tới 90 phần trăm công việc. Sự can thiệp của con người chỉ được yêu cầu “lẻ tẻ (có lẽ 4-6 điểm quyết định quan trọng cho mỗi chiến dịch hack).” Anthropic cho biết tin tặc đã sử dụng khả năng tác nhân AI ở mức độ “chưa từng có.

“Chiến dịch này có ý nghĩa quan trọng đối với an ninh mạng trong thời đại AI ‘agents’—systems có thể chạy tự động trong thời gian dài và hoàn thành các nhiệm vụ phức tạp phần lớn không phụ thuộc vào sự can thiệp của con người,” Anthropic cho biết. “Đại lý có giá trị cho công việc hàng ngày và năng suất—nhưng trong tay kẻ xấu, chúng có thể làm tăng đáng kể khả năng tồn tại của các cuộc tấn công mạng quy mô lớn.”

“Hôn mông, ném đá và tạt axit”

Các nhà nghiên cứu bên ngoài đã không bị thuyết phục rằng phát hiện này là thời điểm bước ngoặt mà các bài đăng của Anthropic đã tạo ra. Họ đặt câu hỏi tại sao những loại tiến bộ này thường được cho là của tin tặc độc hại khi tin tặc mũ trắng và nhà phát triển phần mềm hợp pháp liên tục chỉ báo cáo lợi ích gia tăng từ việc sử dụng AI của họ.

“Tôi tiếp tục từ chối tin rằng những kẻ tấn công bằng cách nào đó có thể khiến những mô hình này vượt qua những vòng lặp mà không ai khác có thể làm được,” Dan Tentler, người sáng lập điều hành của Phobos Group và là nhà nghiên cứu có chuyên môn về các vi phạm bảo mật phức tạp, nói với Ars. “Tại sao các mô hình lại cung cấp cho những kẻ tấn công này những gì chúng muốn trong 90% thời gian nhưng những người còn lại trong chúng ta phải đối mặt với những vụ hôn mông, ném đá và tạt axit?”

Các nhà nghiên cứu không phủ nhận rằng các công cụ AI có thể cải thiện quy trình làm việc và rút ngắn thời gian cần thiết cho một số nhiệm v chẳng hạn như phân loại, phân tích nhật ký và kỹ thuật đảo ngược. Nhưng khả năng AI tự động hóa một chuỗi nhiệm vụ phức tạp với sự tương tác tối thiểu của con người vẫn còn khó nắm bắt. Nhiều nhà nghiên cứu so sánh những tiến bộ từ AI trong các cuộc tấn công mạng với những tiến bộ được cung cấp bởi các công cụ hack như Metasploit hoặc SEToolkit, đã được sử dụng trong nhiều thập k. Không còn nghi ngờ gì nữa, những công cụ này rất hữu ích, nhưng sự ra đời của chúng không làm tăng khả năng của hacker’ một cách có ý nghĩa hoặc mức độ nghiêm trọng của các cuộc tấn công mà chúng tạo ra.

Một lý do khác khiến kết quả không ấn tượng như chúng được đưa ra: Mối đe dọa mà Anthropic theo dõi là GTG-1002— nhắm vào ít nhất 30 tổ chức, bao gồm các tập đoàn công nghệ lớn và cơ quan chính phủ. Trong số đó, chỉ có một số lượng nhỏ các cuộc tấn công thành công. Điều đó, đến lượt nó, đặt ra câu hỏi. Ngay cả khi giả định quá nhiều tương tác của con người đã bị loại bỏ khỏi quá trình, thì điều gì tốt khi tỷ lệ thành công quá thấp? Liệu số lượng thành công có tăng lên nếu những kẻ tấn công sử dụng các phương pháp truyền thống hơn, có sự tham gia của con người?

Theo tài khoản của Anthropic, các tin tặc đã sử dụng Claude để dàn dựng các cuộc tấn công bằng cách sử dụng các phần mềm và khuôn khổ nguồn mở có sẵn. Những công cụ này đã tồn tại trong nhiều năm và đã dễ dàng cho các hậu vệ phát hiện. Anthropic đã không nêu chi tiết các kỹ thuật, công cụ hoặc khai thác cụ thể xảy ra trong các cuộc tấn công, nhưng cho đến nay, không có dấu hiệu nào cho thấy việc sử dụng AI khiến chúng mạnh hơn hoặc lén lút hơn các kỹ thuật truyền thống hơn.

“Các tác nhân đe dọa không phát minh ra điều gì đó mới mẻ ở đây, nhà nghiên cứu độc lập Kevin Beaumont nói rằng.

Ngay cả Anthropic cũng lưu ý “một hạn chế quan trọng trong những phát hiện của mình:

Claude thường xuyên phóng đại những phát hiện và đôi khi bịa đặt dữ liệu trong quá trình hoạt động tự chủ, tuyên bố đã có được thông tin xác thực không hoạt động hoặc xác định những khám phá quan trọng được chứng minh là thông tin có sẵn công khai. Ảo giác AI này trong bối cảnh bảo mật tấn công đặt ra những thách thức đối với hiệu quả hoạt động của tác nhân, đòi hỏi phải xác nhận cẩn thận tất cả các kết quả được công bố. Đây vẫn là một trở ngại cho các cuộc tấn công mạng hoàn toàn tự động.

Cuộc tấn công diễn ra như thế nào (Anthropic nói)

Anthropic cho biết GTG-1002 đã phát triển một khung tấn công tự động sử dụng Claude làm cơ chế điều phối giúp loại bỏ phần lớn nhu cầu tham gia của con người. Hệ thống điều phối này đã chia các cuộc tấn công nhiều giai đoạn phức tạp thành các nhiệm vụ kỹ thuật nhỏ hơn như quét lỗ hổng, xác thực thông tin xác thực, trích xuất dữ liệu và chuyển động ngang.

“Kiến trúc kết hợp các khả năng kỹ thuật của Claude làm công cụ thực thi trong một hệ thống tự động lớn hơn, trong đó AI thực hiện các hành động kỹ thuật cụ thể dựa trên hướng dẫn của người vận hành’ trong khi logic điều phối duy trì trạng thái tấn công, chuyển pha được quản lý và kết quả tổng hợp trong nhiều phiên, ” Anthropic cho biết. “Cách tiếp cận này cho phép tác nhân đe dọa đạt được quy mô hoạt động thường liên quan đến các chiến dịch quốc gia-nhà nước trong khi vẫn duy trì sự tham gia trực tiếp tối thiểu, vì khuôn khổ tự động tiến triển thông qua các giai đoạn trinh sát, truy cập ban đầu, tính bền vững và lọc dữ liệu bằng cách sắp xếp các phản hồi của Claude và điều chỉnh các yêu cầu tiếp theo dựa trên thông tin được phát hiện.”

Các cuộc tấn công tuân theo cấu trúc năm giai đoạn giúp tăng cường quyền tự chủ của AI thông qua từng giai đoạn.

5-phase-cyberattack-claude-1024x762
Vòng đời của cuộc tấn công mạng, cho thấy sự chuyển đổi từ nhắm mục tiêu do con người dẫn đầu sang các cuộc tấn công chủ yếu do AI điều khiển bằng nhiều công cụ khác nhau, thường thông qua Giao thức bối cảnh mô hình (MCP). Tại nhiều thời điểm khác nhau trong cuộc tấn công, AI quay trở lại người điều khiển con người để xem xét và định hướng thêm.
 
Những kẻ tấn công đã có thể vượt qua các lan can bảo vệ Claude một phần bằng cách chia các nhiệm vụ thành các bước nhỏ, trong sự cô lập, công cụ AI đã không hiểu là độc hại. Trong các trường hợp khác, những kẻ tấn công diễn đạt yêu cầu của họ trong bối cảnh các chuyên gia bảo mật đang cố gắng sử dụng Claude để cải thiện khả năng phòng thủ.

Như được ghi nhận tuần trước, Phần mềm độc hại do AI phát triển còn một chặng đường dài trước khi nó gây ra mối đe dọa trong thế giới thực. Không có lý do gì để nghi ngờ rằng các cuộc tấn công mạng được hỗ trợ bởi AI một ngày nào đó có thể tạo ra các cuộc tấn công mạnh mẽ hơn. Nhưng dữ liệu cho đến nay chỉ ra rằng các tác nhân đe dọa, giống như hầu hết những người khác sử dụng AI—, đang nhìn thấy những kết quả khác nhau gần như không ấn tượng như những gì trong ngành AI tuyên bố.

Tác giả tanthanh Admin
Bài viết trước 5 họ phần mềm độc hại do AI phát triển được Google phân tích đều không hoạt động và dễ dàng bị phát hiện.

5 họ phần mềm độc hại do AI phát triển được Google phân tích đều không hoạt động và dễ dàng bị phát hiện.

Bài viết tiếp theo

Vấn đề Matter của Ikea phơi bày “cơn đau đầu” lớn nhất với nhà thông minh

Vấn đề Matter của Ikea phơi bày “cơn đau đầu” lớn nhất với nhà thông minh
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899