Trí tuệ nhân tạo đang nhanh chóng làm cho các biện pháp phòng thủ mạng trở nên lỗi thời: Báo cáo

Tác giả dangkhoa 13/03/2026 26 phút đọc

Trí tuệ nhân tạo đang nhanh chóng làm cho các biện pháp phòng thủ mạng trở nên lỗi thời: Báo cáo

Các cuộc tấn công mạng dựa trên trí tuệ nhân tạo khai thác các hệ thống doanh nghiệp không được quản lý ở tốc độ máy tính.

Thạc sĩ CNTT tại UCO

Theo một báo cáo mới về an ninh cơ sở hạ tầng, việc các doanh nghiệp nhanh chóng ứng dụng trí tuệ nhân tạo đang vượt xa khả năng bảo vệ hoạt động của các tổ chức, cho thấy các cuộc tấn công dựa trên AI đang diễn ra nhanh hơn so với khả năng phản ứng của các biện pháp phòng thủ truyền thống.

Trong báo cáo An ninh AI ThreatLabz 2026, Zscaler cảnh báo rằng các doanh nghiệp chưa sẵn sàng cho làn sóng rủi ro mạng do AI gây ra tiếp theo, ngay cả khi AI ngày càng được tích hợp vào hoạt động kinh doanh.

Báo cáo, dựa trên phân tích gần một nghìn tỷ giao dịch AI/ML trên nền tảng Zscaler Zero Trust Exchange từ tháng 1 đến tháng 12 năm 2025, dự đoán rằng các doanh nghiệp đang đạt đến điểm bùng phát, nơi AI đã chuyển từ một công cụ tăng năng suất thành một yếu tố chính gây ra xung đột tự động, với tốc độ máy móc.

“Trí tuệ nhân tạo không còn chỉ là một công cụ tăng năng suất mà còn là phương thức chính cho các cuộc tấn công tự động, tốc độ máy móc từ cả phần mềm độc hại và các quốc gia,” Phó Chủ tịch điều hành phụ trách An ninh mạng của Zscaler, Deepen Desai, cho biết trong một tuyên bố.

Ông tiếp tục: “Trong thời đại Trí tuệ nhân tạo có khả năng tác động (Agentic AI), một vụ xâm nhập có thể chuyển từ giai đoạn phát hiện sang giai đoạn di chuyển ngang rồi đến giai đoạn đánh cắp dữ liệu chỉ trong vài phút, khiến các biện pháp phòng thủ truyền thống trở nên lỗi thời.”

Việc áp dụng diễn ra nhanh hơn so với việc giám sát.

Báo cáo cảnh báo rằng việc áp dụng AI đang tăng tốc nhanh hơn so với sự giám sát của doanh nghiệp và tiết lộ rằng, mặc dù việc sử dụng AI đã tăng 200% trong các lĩnh vực trọng điểm, nhiều tổ chức vẫn thiếu một danh mục cơ bản về các mô hình AI và các tính năng AI được tích hợp.

Những phát hiện của Zscaler xác nhận chính xác những gì chúng tôi đã cảnh báo năm ngoái, Stu Bradley, phó chủ tịch cấp cao về giải pháp rủi ro, gian lận và tuân thủ tại SAS , một công ty phần mềm phân tích và trí tuệ nhân tạo ở Cary, NC, nhận xét. “Các doanh nghiệp đang áp dụng AI nhanh hơn việc xây dựng các rào cản quản trị phù hợp, và giờ chúng ta bắt đầu thấy hậu quả”, ông nói với TechNewsWorld.

“Hầu hết các tổ chức vẫn chưa có một danh sách đầy đủ về việc AI đang hoạt động ở đâu hoặc dữ liệu nào nó xử lý,” ông tiếp tục. “Chúng ta đang nói đến hàng triệu tương tác AI không được quản lý và hàng terabyte dữ liệu nhạy cảm tiềm ẩn đang chảy vào các hệ thống mà không ai giám sát. Bạn không cần phải là Giám đốc An ninh Thông tin (CISO) để nhận ra rủi ro tiềm tàng trong đó.”

“Cuối cùng, trí tuệ nhân tạo sẽ có mặt ở khắp mọi nơi nhưng người ta sẽ không kiểm soát được gì cả,” Ryan McCurdy, phó chủ tịch tiếp thị tại Liquibase , một công ty tự động hóa thay đổi cơ sở dữ liệu ở Austin, Texas, cho biết thêm.

“Mọi người đang sao chép dữ liệu khách hàng, các đoạn mã và ngữ cảnh sản xuất vào trợ lý ảo vì đó là cách nhanh nhất để hoàn thành công việc,” ông nói với TechNewsWorld. “Đồng thời, các nhà cung cấp đang tích hợp AI vào các công cụ mà bạn đã sử dụng, do đó việc sử dụng lan rộng mà không có đánh giá bảo mật chính thức.”

“Rủi ro không chỉ là lý thuyết,” ông tuyên bố. “Khi bạn không thể lập danh sách các hệ thống mà AI đang hoạt động và tương tác, bạn không thể thực thi chính sách hoặc điều tra các sự cố một cách chắc chắn.”

Michael Bell, CEO của Suzu Testing , một nhà cung cấp dịch vụ an ninh mạng dựa trên trí tuệ nhân tạo tại Las Vegas, giải thích rằng mọi nhà cung cấp phần mềm dưới dạng dịch vụ (SaaS) lớn đều đang tích hợp các tính năng AI vào sản phẩm của họ. Ông nói với TechNewsWorld: “Những tính năng này thường được kích hoạt mặc định, kế thừa các quyền hiện có và tránh bị phát hiện bởi các bộ lọc bảo mật truyền thống”.

“Nhân viên của bạn không tự lựa chọn sử dụng AI,” ông nói. “AI chỉ đang hoạt động ngầm trong các công cụ mà họ đã sử dụng. Đó là một hồ sơ rủi ro khác biệt về cơ bản so với AI ngầm, bởi vì bạn không thể giải quyết vấn đề bằng cách chặn ChatGPT tại tường lửa. AI đã nằm bên trong các ứng dụng mà bạn đã cho phép.”

Các cuộc tấn công được phát động với tốc độ máy.

Các nhà nghiên cứu của Zscaler cũng báo cáo rằng các hệ thống AI doanh nghiệp dễ bị tổn thương ở tốc độ máy móc. Họ phát hiện ra rằng hầu hết các hệ thống AI doanh nghiệp có thể bị xâm phạm chỉ trong 16 phút, với các lỗ hổng nghiêm trọng được phát hiện trong 100% các hệ thống mà họ đã phân tích.

Báo cáo lưu ý rằng, trong khi các cuộc thảo luận về an ninh AI thường tập trung vào các mối đe dọa giả định trong tương lai, thì thử nghiệm nhóm đỏ của Zscaler đã tiết lộ một thực tế cấp bách hơn: khi các hệ thống AI của doanh nghiệp được thử nghiệm trong điều kiện tấn công thực tế, chúng sẽ bị lỗi gần như ngay lập tức.

“Các hệ thống AI dễ bị xâm phạm nhanh chóng vì chúng dựa vào nhiều quyền hạn hoạt động cùng nhau, cho dù các quyền hạn đó được cấp thông qua tài khoản dịch vụ hay được kế thừa từ quyền truy cập cấp người dùng,” Sunil Gottumukkala, Giám đốc điều hành của Averlon , một công ty bảo mật đám mây dựa trên AI tại Redmond, Washington, giải thích.

“Một tài khoản định danh có thể truy cập dữ liệu nhạy cảm, một tài khoản khác có thể kích hoạt các hành động tự động, và tài khoản thứ ba có thể ghi vào hệ thống sản xuất,” ông nói với TechNewsWorld. “Riêng lẻ, các quyền này thường có vẻ hợp pháp. Nhưng khi kết hợp lại, chúng có thể tạo ra các chuỗi tấn công ngoài ý muốn đối với dữ liệu nhạy cảm hoặc các hệ thống quan trọng.”

“Một số công ty vẫn tập trung vào việc sử dụng mã số định danh nhân viên để phân biệt người được ủy quyền hợp lệ, nhưng tỷ lệ giữa định danh phi con người và con người hiện nay là 82:1, trong khi việc giám sát quyền truy cập và khả năng của mô hình AI lại ít được thực hiện hơn”, Troy Leach, giám đốc chiến lược của Cloud Security Alliance , một tổ chức phi lợi nhuận chuyên về các thực tiễn tốt nhất trong điện toán đám mây, giải thích.

“Thêm vào đó, số lượng API khổng lồ và khả năng tự chủ của các tác nhân AI trong việc cấp hoặc có quyền truy cập công cụ đặc quyền tạo ra những cách thức mới để vượt qua các biện pháp kiểm soát an ninh,” ông nói với TechNewsWorld. “Việc xoay vòng và thu hồi quyền cần phải được cải tiến thành những nỗ lực năng động hơn để theo kịp sự đổi mới.”

Hầu hết các doanh nghiệp coi bảo mật AI như một phần mở rộng của bảo mật ứng dụng, nhưng bề mặt tấn công về cơ bản là khác biệt, Brad Micklea, Giám đốc điều hành kiêm đồng sáng lập của Jozu , một công ty có trụ sở tại Toronto chuyên phát triển các công cụ để đóng gói, triển khai, quản lý và điều hành các mô hình AI một cách an toàn, cho biết thêm.

“Các mô hình không phải là mã lập trình,” ông nói với TechNewsWorld. “Chúng là những thành phần cấu tạo với dữ liệu huấn luyện, trọng số và các mối phụ thuộc được nhúng bên trong, có thể bị lỗi ở bất kỳ điểm nào trong chuỗi cung ứng. Các công cụ bảo mật ứng dụng truyền thống không kiểm tra các thành phần bên trong của mô hình vì chúng không được thiết kế để làm điều đó.”

AI Gold Rush tạo ra mã nguồn kém chất lượng.

Nhiều công ty đang đổ xô tham gia vào "cơn sốt vàng" AI, vì vậy các nhóm phát triển thiếu kinh nghiệm đang sử dụng AI để tạo ra mã nguồn kém chất lượng, dẫn đến phát sinh lỗi và lỗ hổng bảo mật, theo lời giải thích của Eric Hulse, giám đốc nghiên cứu tại Command Zero , một công ty tự động hóa điều tra tội phạm mạng ở Austin, Texas.

“Các bộ phận trong công ty không có quy trình bảo mật chính thức đang triển khai các tính năng hỗ trợ bởi AI nhưng không được kiểm duyệt đúng cách,” ông nói với TechNewsWorld. “Từ góc độ kỹ thuật, các hệ thống này đang được triển khai với tư thế bảo mật của một nguyên mẫu, chứ không phải một hệ thống đang trong giai đoạn sản xuất.”

“Chúng tôi đang chứng kiến ​​các điểm cuối mô hình bị lộ mà không có xác thực đúng cách, các lỗ hổng tấn công chèn mã nhanh và tích hợp API không an toàn với quyền hạn quá mức,” ông nói. “Các cấu hình mặc định đang được đưa thẳng vào môi trường sản xuất. Tóm lại, đây là một lĩnh vực hoàn toàn mới, và mọi người đang đổ xô vào để giành lấy thị phần, tăng doanh thu và nhanh chóng đưa sản phẩm ra thị trường.”

“Trong nỗ lực vội vàng đưa AI ra thị trường, các nhóm kỹ thuật và sản phẩm thường cắt giảm chi phí để đáp ứng thời gian ra mắt sản phẩm đầy thách thức,” Randolph Barr, Giám đốc An ninh Thông tin (CISO) của Cequence Security , một công ty toàn cầu về bảo mật API và quản lý bot, cho biết thêm.

“Khi điều đó xảy ra, các biện pháp kiểm soát an ninh cơ bản sẽ bị bỏ qua, và những lối tắt đó sẽ được đưa vào môi trường sản xuất,” ông nói với TechNewsWorld. “Vì vậy, mặc dù các tổ chức chắc chắn đang bắt đầu nghĩ đến việc bảo vệ mô hình, tấn công chèn mã độc, rò rỉ dữ liệu và phát hiện bất thường, nhưng những nỗ lực đó sẽ chẳng có ý nghĩa gì nếu bạn chưa bảo mật danh tính, quyền truy cập và cấu hình ở cấp độ nền tảng.”

Báo cáo cũng lưu ý rằng vào năm 2025, lượng dữ liệu doanh nghiệp chuyển sang các ứng dụng AI/ML đã tăng vọt lên 18.033 terabyte — tăng 93% so với năm trước và tương đương với khoảng 3,6 tỷ bức ảnh kỹ thuật số.

Mức độ rủi ro này được định lượng bằng 410 triệu vụ vi phạm chính sách Ngăn ngừa Mất dữ liệu (DLP) liên quan đến ChatGPT, báo cáo cho biết thêm, bao gồm cả các nỗ lực chia sẻ số An sinh xã hội, mã nguồn và hồ sơ y tế.

Báo cáo lập luận rằng những phát hiện này cho thấy quản trị AI đã chuyển từ một cuộc thảo luận chính sách sang một nhu cầu hoạt động cấp thiết. Báo cáo cảnh báo rằng khi các kho dữ liệu này phát triển, chúng đang trở thành mục tiêu ưu tiên hàng đầu cho hoạt động gián điệp mạng.

Không cần phải hoảng sợ

Điểm đáng chú ý nhất từ ​​báo cáo là trí tuệ nhân tạo (AI) đã trở thành một phần của công việc hàng ngày, và mọi người đang sử dụng nó để xử lý dữ liệu kinh doanh thực tế - thường mà không nhận ra rủi ro, theo nhận định của Riaan Gouws, Giám đốc công nghệ của Forward Edge-AI, một công ty trí tuệ nhân tạo tập trung vào an toàn công cộng, an ninh quốc gia và công nghệ chống gian lận tại San Antonio, Texas.

“Các công ty không cần phải hoảng loạn, nhưng họ cần phải nhanh chóng bắt kịp,” ông nói với TechNewsWorld. “Hãy quyết định những công cụ nào được phép sử dụng, thiết lập các biện pháp bảo vệ xung quanh dữ liệu nhạy cảm và đảm bảo bộ phận an ninh có thể thực sự thấy được những công cụ nào đang được sử dụng.”

“Điều mà báo cáo nhấn mạnh cuối cùng không phải là vấn đề về trí tuệ nhân tạo, mà là vấn đề về quản trị danh tính,” Rosario Mastrogiacomo, giám đốc chiến lược của Sphere Technology Solutions , một công ty phần mềm và dịch vụ quản trị dữ liệu ở Hoboken, NJ, cho biết thêm.

“Cho đến khi các doanh nghiệp nhận ra rằng hệ thống AI là những thực thể cần được khám phá, sở hữu, giám sát hành vi và quản lý vòng đời, chúng ta sẽ tiếp tục chứng kiến ​​những đổi mới ấn tượng đi kèm với bảo mật yếu kém,” ông nói với TechNewsWorld. “Những tổ chức làm đúng điều này sẽ không làm chậm quá trình ứng dụng AI. Họ sẽ biến nó thành một quá trình bền vững.”

Tác giả dangkhoa Admin
Bài viết trước Các giếng thí điểm đặt nền móng cho việc sản xuất năng lượng bằng hydro.

Các giếng thí điểm đặt nền móng cho việc sản xuất năng lượng bằng hydro.

Bài viết tiếp theo

Phần mềm chống vi-rút tốt nhất để bảo vệ máy tính của bạn vào năm 2026

Phần mềm chống vi-rút tốt nhất để bảo vệ máy tính của bạn vào năm 2026
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899