Dữ liệu trong tự nhiên: 40% việc sử dụng AI của nhân viên liên quan đến thông tin nhạy cảm

Tác giả ptkhanhduy 12/03/2026 21 phút đọc

Việc áp dụng trí tuệ nhân tạo tại nơi làm việc đang tăng nhanh hơn khả năng kiểm soát của các tổ chức, khiến việc sử dụng của nhân viên ngày càng ít được giám sát và tiềm ẩn nhiều rủi ro.

hệ thống AI và mạng dữ liệu doanh nghiệp được kết nối với nhau

Theo nghiên cứu mới từ công ty bảo mật dữ liệu Cyberhaven, gần 40% tổng số tương tác của nhân viên với các công cụ AI liên quan đến dữ liệu nhạy cảm của công ty.

Khi người lao động bỏ qua các kênh chính thức để sử dụng các công cụ chuyên dụng như ClaudeDeepSeek, các tổ chức rơi vào tình trạng bị chia rẽ giữa:

  • những người áp dụng AI tiên phong

  • và những người tụt hậu, đang dần mất kiểm soát đối với tài sản thông tin quan trọng của mình.

Những phát hiện này đến từ Cyberhaven Labs, nhóm nghiên cứu nội bộ của công ty, dựa trên việc theo dõi cách thông tin di chuyển giữa:

  • thiết bị đầu cuối

  • ứng dụng SaaS

  • các công cụ AI

trong thời gian thực.

Trong nhiều trường hợp, các công ty ưu tiên tăng trưởng và thử nghiệm, còn bảo mật và quản trị đến sau.

Hiện nay, phần lớn việc sử dụng AI diễn ra trong các công cụ có rủi ro cao, nơi nhân viên thường xuyên nhập dữ liệu nhạy cảm vào một hệ sinh thái ngày càng lớn gồm:

  • công cụ GenAI

  • trợ lý lập trình

  • các tác nhân AI tùy chỉnh

Theo báo cáo, đối với nhiều tổ chức, việc sử dụng AI giống như miền Tây hoang dã.

Các công cụ phát triển nhanh hơn chính sách, việc sử dụng của nhân viên vượt quá khả năng quan sát của công ty, và dữ liệu nhạy cảm đang di chuyển qua:

  • mô hình AI

  • ứng dụng

  • tài khoản cá nhân

với rất ít kiểm soát tập trung.

“Ngày càng khó đảm bảo việc sử dụng rộng rãi các công cụ này,” Nishant Doshi, CEO của Cyberhaven, cho biết.

“Nhưng điều các tổ chức nên làm là đảm bảo rằng các giải pháp bảo mật dữ liệu của họ bao gồm cả việc sử dụng AI.”


Công cụ AI tràn ngập mạng doanh nghiệp

Một nhóm nhỏ các tổ chức tiên phong đang triển khai hàng trăm công cụ AI cho gần 70% lực lượng lao động của họ.

Ngược lại, các tổ chức tụt hậu chỉ có khoảng 2% nhân viên sử dụng AI.

Khoảng cách này đang tạo ra một tình huống trong đó nhân viên, vì nhu cầu năng suất, tự xây dựng hệ sinh thái Shadow AI của riêng họ bên ngoài các quy định của công ty.

Biểu đồ hiển thị mức độ rủi ro của 100 ứng dụng SaaS GenAI hàng đầu, với hầu hết được phân loại là rủi ro trung bình, cao hoặc nghiêm trọng.

Nghiên cứu của Cyberhaven đưa ra năm phát hiện chính:

  • Các tổ chức áp dụng AI mạnh nhất đang sử dụng hơn 300 công cụ GenAI trong môi trường doanh nghiệp.

  • Các mô hình AI trọng lượng mở của Trung Quốc đã trở thành một trong những lựa chọn phổ biến nhất, chiếm khoảng một nửa mức sử dụng AI dựa trên điểm cuối.

  • Trong 100 ứng dụng GenAI SaaS phổ biến nhất, 82% được phân loại là rủi ro trung bình, cao hoặc nghiêm trọng.

  • Một phần ba nhân viên sử dụng công cụ AI thông qua tài khoản cá nhân, làm tăng rủi ro Shadow AI.

  • 39,7% tương tác với AI liên quan đến dữ liệu nhạy cảm.

Doshi cho rằng các tổ chức cần hiểu và theo dõi toàn bộ vòng đời của dữ liệu để bảo vệ thông tin đúng cách.


Khoảng cách giữa các tổ chức tiên phong và tụt hậu

Các tổ chức tiên phong thường có chiến lược chính thức khuyến khích nhân viên sử dụng AI trong công việc hàng ngày.

Điều này tạo ra văn hóa thử nghiệm và đổi mới, nơi nhân viên được khuyến khích khám phá các công nghệ AI mới.

Ngược lại, các tổ chức tụt hậu thường bị hạn chế bởi:

  • chính sách bảo mật quá nghiêm ngặt

  • hệ thống dữ liệu cũ và phân mảnh

  • thiếu niềm tin vào việc nhân viên sử dụng AI an toàn

Điều này tạo ra sự chia rẽ trong tư duy lãnh đạo.

Một số công ty coi AI là một công cụ năng suất có thể được triển khai an toàn, trong khi những công ty khác coi nó là mối đe dọa cần kiểm soát chặt chẽ.


Mô hình AI Trung Quốc nhanh chóng thâm nhập doanh nghiệp

Một xu hướng đáng chú ý là các mô hình AI trọng lượng mở của Trung Quốc đang được sử dụng rộng rãi trong doanh nghiệp.

Các công cụ như DeepSeek đã nhanh chóng trở thành lựa chọn phổ biến sau khi phát hành DeepSeek-R1 vào tháng 1 năm 2025.

Mô hình này cho thấy rằng Trung Quốc có thể:

  • đạt ngang trình độ với các mô hình AI hàng đầu của Mỹ

  • thậm chí vượt trội trong một số nhiệm vụ như lập trình

Đối với nhiều nhân viên, hiệu suất cao và khả năng vượt qua các bộ lọc công ty khiến họ sử dụng các công cụ này bất chấp các lo ngại về địa chính trị.

Kết quả là 50% việc sử dụng AI dựa trên điểm cuối trong dữ liệu của Cyberhaven liên quan đến các mô hình trọng lượng mở.


Nhân viên vô tình làm rò rỉ dữ liệu nhạy cảm

Biểu đồ hình tròn hiển thị các loại dữ liệu mà nhân viên nhập vào các công cụ AI, bao gồm mã, nghiên cứu, bán hàng, nhân sự, tài chính và các thông tin kinh doanh khác.

Khoảng 39,7% tương tác với AI liên quan đến dữ liệu nhạy cảm.

Trong một số trường hợp, nhân viên cố ý tải lên thông tin độc quyền, chẳng hạn như:

  • mã nguồn

  • dữ liệu nghiên cứu

  • thông tin khách hàng

Trong các trường hợp khác, rủi ro xuất hiện khi AI được tích hợp vào các quy trình làm việc tiêu chuẩn như:

  • CRM

  • nghiên cứu và phát triển

  • quản lý tài chính

Nhân viên đang cung cấp cho các công cụ AI nhiều loại dữ liệu kinh doanh, bao gồm:

  • mã nguồn

  • nghiên cứu

  • dữ liệu bán hàng

  • dữ liệu nhân sự

  • thông tin tài chính

Doshi cho biết nhiều nhân viên không nhận thức được hậu quả của việc nhập dữ liệu nhạy cảm vào AI.

“Điều đó có nghĩa là dữ liệu của bạn không còn nằm dưới sự kiểm soát của công ty nữa, mà nằm trong hệ thống của nhà cung cấp AI.”

Một số nhà cung cấp thậm chí sử dụng dữ liệu của người dùng để huấn luyện mô hình, điều này làm tăng rủi ro.


Tài khoản cá nhân và Shadow AI

Một nguồn rủi ro lớn khác là tài khoản cá nhân của nhân viên.

Khoảng 60% việc sử dụng Claude và Perplexity diễn ra thông qua tài khoản cá nhân, thay vì tài khoản công ty.

Điều này làm tăng sự phát triển của Shadow AI, nơi các công cụ AI bên ngoài hệ thống chính thức của công ty được sử dụng rộng rãi.

Claude và Perplexity đặc biệt phổ biến vì:

  • Claude được xem là công cụ lập trình tốt nhất

  • Perplexity là công cụ tìm kiếm AI chuyên dụng

Nhiều nhân viên chọn chúng vì trải nghiệm người dùng tốt hơn so với các công cụ AI được công ty phê duyệt.

Shadow AI trở thành vấn đề lớn vì các công cụ AI có thể xử lý dữ liệu ở tốc độ máy, tạo ra các bản sao dữ liệu bên ngoài hệ thống kiểm soát của công ty.

Doshi cho rằng giải pháp duy nhất là bảo mật dữ liệu và quản trị dữ liệu mạnh mẽ hơn.


Ứng dụng GenAI doanh nghiệp có rủi ro cao

Theo báo cáo, 82% trong 100 ứng dụng GenAI SaaS phổ biến nhất được phân loại là rủi ro.

Điều này không có nghĩa là thị trường AI doanh nghiệp thiếu công cụ hữu ích.

Biểu đồ hiển thị mức độ rủi ro của 100 ứng dụng SaaS GenAI hàng đầu, với hầu hết được phân loại là rủi ro trung bình, cao hoặc nghiêm trọng

Thay vào đó, vấn đề là nhân viên ưu tiên sự tiện lợi hơn các quy trình chính thức.

Nhiều công cụ AI cung cấp:

  • quy trình làm việc chuyên biệt

  • giao diện dễ sử dụng

  • khả năng thực hiện nhiệm vụ ngay lập tức

Ví dụ, NoteGPT có thể:

  • tóm tắt nội dung

  • chuyển đổi PDF

  • tạo bản ghi

  • viết nội dung AI

Các công cụ này cho phép nhân viên bỏ qua quá trình học cách sử dụng các hệ thống phức tạp hơn của công ty.

Tuy nhiên, Doshi cảnh báo rằng nhiều công cụ doanh nghiệp mới tuy hứa hẹn bảo mật và đổi mới, nhưng vẫn thiếu khả năng so với các công cụ AI phổ biến.


Sự chuyển đổi từ chatbot sang tác nhân AI

Một xu hướng mới là sự chuyển đổi từ chatbot AI sang các tác nhân AI chuyên dụng và công cụ mã hóa.

Các chatbot độc lập kiểu ChatGPT có thể không còn là hình thức AI phổ biến nhất trong tương lai.

Tuy nhiên, Doshi cho rằng còn quá sớm để kết luận điều này.

Dữ liệu cho thấy việc sử dụng chatbot vẫn ổn định, trong khi các tác nhân AI chuyên biệt đang phát triển nhanh trong những lĩnh vực cụ thể.

Ví dụ:

  • kỹ sư phần mềm đang chuyển sang tác nhân lập trình AI

  • trong khi các bộ phận khác vẫn sử dụng GenAI cho các nhiệm vụ cơ bản


Điều gì sẽ xảy ra tiếp theo

Theo Doshi, việc sử dụng AI — dù được công ty phê duyệt hay không — sẽ tiếp tục tăng nhanh.

Số lượng ứng dụng AI và tỷ lệ nhân viên sử dụng chúng sẽ trở thành chỉ số quan trọng cho mức độ trưởng thành AI của doanh nghiệp.

Năm 2025 thường được gọi là “Năm của các tác nhân AI”, nhưng ông tin rằng việc áp dụng tác nhân AI trong doanh nghiệp mới chỉ bắt đầu.

“Đây chỉ là khởi đầu,” ông nói.

“Và điều đó khiến việc bảo mật và quản lý các công cụ AI trở nên quan trọng hơn bao giờ hết.”

Tác giả ptkhanhduy Admin
Bài viết trước Chatbots khuyến khích ‘teens’ lên kế hoạch xả súng trong nghiên cứu

Chatbots khuyến khích ‘teens’ lên kế hoạch xả súng trong nghiên cứu

Bài viết tiếp theo

5 chiến thuật bảo mật mà doanh nghiệp của bạn không thể sai lầm trong thời đại AI — và tại sao chúng lại quan trọng

5 chiến thuật bảo mật mà doanh nghiệp của bạn không thể sai lầm trong thời đại AI — và tại sao chúng lại quan trọng
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899