41% Trường học Báo cáo Sự cố An ninh mạng Liên quan đến AI: Mối đe dọa Lừa đảo, Deepfake và Chính sách AI Lỏng lẻo
Theo một báo cáo nghiên cứu mới được công bố bởi một công ty quản lý danh tính và truy cập hệ thống (dựa trên khảo sát 1.460 quản trị viên giáo dục ở Hoa Kỳ và Vương quốc Anh), 41% các trường học ở hai quốc gia này đã trải qua các sự cố an ninh mạng liên quan đến AI.
Phát hiện đáng báo động này nhấn mạnh mức độ mà AI đã nhanh chóng mở rộng bề mặt tấn công của ngành giáo dục, một lĩnh vực vốn đã dễ bị tổn thương do ngân sách bảo mật và nhân sự CNTT hạn chế.

1. Các Dạng Sự Cố Liên quan đến AI
Các sự cố được báo cáo bao gồm nhiều mối đe dọa khác nhau, cho thấy AI đang được sử dụng như một công cụ tấn công mạnh mẽ:
Tấn công Lừa đảo (Phishing) Tinh vi: Tội phạm mạng sử dụng AI để tạo ra các email lừa đảo (phishing) và lừa đảo bằng giọng nói (vishing) có tính thuyết phục và ít lỗi ngữ pháp hơn, khiến chúng khó bị nhận diện hơn đối với nhân viên và học sinh.
Nội dung Gây hại do Học sinh Tạo ra: Gần 30% các trường báo cáo các trường hợp nội dung AI độc hại, chẳng hạn như deepfake (sản phẩm giả mạo sâu) về bạn học hoặc giáo viên, tạo ra các vấn đề về bắt nạt trên mạng và đạo đức.
Thông tin Sai lệch (Misinformation): AI được dùng để lan truyền thông tin sai lệch về trường học, sinh viên hoặc nhân viên trên quy mô chưa từng có.
Trong số 41% trường học gặp sự cố, 11% báo cáo rằng sự cố đã gây ra gián đoạn hoạt động, trong khi 30% cho biết sự cố đã được kiềm chế nhanh chóng.
2. Vấn đề Chính sách và Kỷ luật Lỏng lẻo
Phần lớn các tổ chức giáo dục hiện đang tập trung vào việc áp dụng AI mà không có các biện pháp bảo mật và chính sách cần thiết:
Sự Phổ biến của Công cụ AI: 86% các tổ chức cho phép học sinh sử dụng các công cụ AI và 91% cho phép giảng viên sử dụng, nhưng hầu hết chỉ có hướng dẫn (guidelines) chứ chưa có chính sách chính thức (formalized policies).
Thiếu Nhận thức về Mối đe dọa: Chỉ một phần tư các quản lý giáo dục cảm thấy "rất tự tin" trong việc nhận biết các mối đe dọa do AI kích hoạt, chẳng hạn như deepfake hoặc lừa đảo AI.
Mở rộng Bề mặt Tấn công: Sự phổ biến của các công cụ AI được sinh viên và giảng viên tự ý áp dụng, không qua kiểm duyệt của tổ chức, đã làm mở rộng đáng kể bề mặt tấn công của trường học.
Các chuyên gia cảnh báo rằng con số 41% có thể chỉ đại diện cho các sự cố đã được phát hiện và báo cáo, nghĩa là số lượng thực tế có thể cao hơn nhiều.
3. Lời kêu gọi Hành động
Bài báo kêu gọi các trường học ưu tiên bảo mật và giáo dục người dùng:
Tập trung vào "Tường lửa Con người": Đào tạo an ninh mạng cho học sinh, giáo viên và nhân viên cần được phát triển để đối phó với các cuộc tấn công được thiết kế để đánh lừa con người.
Xây dựng Khung chính sách: Các quyết định quan trọng trong giai đoạn đầu áp dụng AI sẽ định hình việc xã hội đón nhận công nghệ này, do đó cần có các khung chính sách mạnh mẽ để quản lý rủi ro và bảo vệ dữ liệu.