Dữ liệu trong thực tế: 40% việc sử dụng AI của nhân viên liên quan đến thông tin nhạy cảm

Tác giả dangkhoa 13/03/2026 27 phút đọc

Dữ liệu trong thực tế: 40% việc sử dụng AI của nhân viên liên quan đến thông tin nhạy cảm

các hệ thống AI kết nối với nhau và mạng dữ liệu doanh nghiệp

Thạc sĩ CNTT tại UCO

Việc ứng dụng trí tuệ nhân tạo (AI) trong môi trường làm việc đang diễn ra nhanh hơn hầu hết các tổ chức có thể đảm bảo an toàn cho nó, khiến việc sử dụng của nhân viên ngày càng thiếu sự giám sát và tiềm ẩn nhiều rủi ro.

Theo nghiên cứu mới từ Cyberhaven , một công ty chuyên về bảo mật dữ liệu dựa trên trí tuệ nhân tạo , gần 40% các tương tác của nhân viên với các công cụ AI hiện nay liên quan đến dữ liệu nhạy cảm của doanh nghiệp. Khi nhân viên bỏ qua các kênh chính thức để sử dụng các công cụ chuyên dụng như Claude và DeepSeek, các tổ chức nhận thấy mình bị chia rẽ giữa những người tiên phong áp dụng công nghệ và những người tụt hậu, những người đang mất quyền kiểm soát đối với các tài sản thông tin quý giá nhất của họ.

Cyberhaven Labs, nhóm nghiên cứu nội bộ của công ty, đã công bố kết quả nghiên cứu vào thứ Năm dựa trên việc theo dõi nguồn gốc dữ liệu, cho thấy thông tin di chuyển như thế nào giữa các thiết bị đầu cuối, ứng dụng SaaS và công cụ AI trong thời gian thực. Trong nhiều trường hợp, các công ty ưu tiên tăng trưởng và thử nghiệm. Bảo mật, quản trị và giám sát được ưu tiên sau đó.

Đồng thời, phần lớn việc sử dụng AI hiện nay diễn ra trong các công cụ tiềm ẩn rủi ro cao. Nhân viên thường xuyên nhập dữ liệu nhạy cảm vào một hệ sinh thái rộng lớn và đang phát triển gồm các công cụ AI thế hệ mới, trợ lý lập trình và các tác nhân được xây dựng tùy chỉnh.

Theo báo cáo, đối với nhiều tổ chức, việc sử dụng AI giống như một vùng đất hoang dã. Các công cụ phát triển nhanh hơn các chính sách, việc sử dụng của nhân viên thường vượt quá khả năng giám sát, và dữ liệu nhạy cảm được luân chuyển giữa các mô hình, ứng dụng và tài khoản với sự kiểm soát tập trung hạn chế.

“Việc đảm bảo sử dụng rộng rãi các công cụ ngày càng khó khăn, nhưng điều mà các tổ chức có thể và nên làm là đảm bảo các giải pháp bảo mật dữ liệu của họ bao gồm cả việc sử dụng AI,” Giám đốc điều hành của Cyberhaven, Nishant Doshi, chia sẻ với TechNewsWorld.

Sự tràn lan của các công cụ AI làm ngập lụt mạng lưới doanh nghiệp

Một nhóm nhỏ các tổ chức tiên phong đang tích cực triển khai hàng trăm công cụ cho gần 70% lực lượng lao động của họ. Những tổ chức tụt hậu vẫn chỉ dừng lại ở mức 2% áp dụng. Sự phân hóa này đang tạo ra một khoảng trống, nơi nhân viên, do nhu cầu năng suất thúc đẩy, đang bỏ qua các rào cản của doanh nghiệp để xây dựng hệ sinh thái AI "ngầm" của riêng họ.

Báo cáo nghiên cứu của Cyberhaven đưa ra năm phát hiện chính:

  • Các tổ chức có tỷ lệ ứng dụng AI cao nhất đang sử dụng hơn 300 công cụ AI thế hệ mới trong môi trường doanh nghiệp của họ.
  • Các mô hình phần cứng mã nguồn mở của Trung Quốc hiện đang được các doanh nghiệp ưa chuộng, chiếm một nửa số lượng sử dụng thiết bị đầu cuối trong số người dùng Cyberhaven.
  • Các công cụ GenAI vẫn tiềm ẩn nhiều rủi ro. Khi xem xét 100 ứng dụng GenAI SaaS được sử dụng nhiều nhất, 82% được xếp vào loại rủi ro “trung bình”, “cao” hoặc “nghiêm trọng”.
  • Một phần ba số nhân viên đang truy cập các công cụ GenAI từ tài khoản cá nhân, làm tăng rủi ro tổng thể và sự xuất hiện của AI ngầm.
  • Nhân viên đang cung cấp dữ liệu nhạy cảm cho các công cụ AI, vì hơn một phần ba (39,7%) tổng số tương tác với các công cụ AI liên quan đến dữ liệu nhạy cảm.

Biểu đồ phân bố dưới đây cho thấy số lượng công cụ GenAI đang được sử dụng tăng mạnh như thế nào trong số những doanh nghiệp tiên phong áp dụng công nghệ này.


Biểu đồ thể hiện mức độ rủi ro của 100 ứng dụng SaaS GenAI hàng đầu, trong đó hầu hết được phân loại là rủi ro trung bình, cao hoặc nghiêm trọng.

Theo Cyberhaven, hơn bốn phần năm trong số các ứng dụng SaaS GenAI được sử dụng rộng rãi nhất được phân loại là có rủi ro trung bình, cao hoặc nghiêm trọng.


Ông Doshi nhấn mạnh: “Các tổ chức phải hiểu và theo dõi toàn bộ vòng đời của dữ liệu để bảo mật dữ liệu một cách đúng đắn”.

Khoảng cách tiên phong: Chiến lược hay văn hóa dễ dãi?

Nishant Doshi

Nishant Doshi, Giám đốc điều hành của Cyberhaven

Theo Doshi, các tổ chức tiên phong rất có thể đang thực hiện một chiến lược doanh nghiệp chính thức khuyến khích nhân viên tích hợp AI vào quy trình làm việc hàng ngày. Sự khuyến khích này sau đó dẫn đến một văn hóa nội bộ cởi mở hơn đối với việc thử nghiệm các tính năng và công nghệ AI mới, dù được cho phép hay không.

Ông cho biết: “Các công ty tụt hậu chủ yếu bị cản trở bởi tư thế bảo mật ưu tiên khối dữ liệu và các hệ thống dữ liệu cũ phân mảnh, khiến việc tích hợp chính thức trở nên quá rủi ro hoặc phức tạp”.

Một yếu tố khác góp phần vào vấn đề này là sự thiếu tin tưởng cố hữu. Các tổ chức này thiếu niềm tin hoàn toàn vào khả năng của nhân viên trong việc sử dụng các công cụ này một cách an toàn hoặc phù hợp với các giá trị của công ty.

“Điều này tạo ra sự chia rẽ, trong đó giới lãnh đạo tại các tổ chức này xem AI như một mối đe dọa cần được quản lý. Các công ty tiên phong lại xem nó như một công cụ tăng năng suất có thể được kích hoạt một cách an toàn”, ông nói thêm.

Các mô hình trí tuệ nhân tạo Trung Quốc nhanh chóng thâm nhập vào doanh nghiệp.

Một sự thay đổi đáng ngạc nhiên trong cán cân quyền lực AI cho thấy các mô hình AI mã nguồn mở của Trung Quốc đang chuyển mình từ vị thế ngoại lai thành yếu tố thiết yếu trong doanh nghiệp gần như chỉ sau một đêm. Các sản phẩm như DeepSeek đang thúc đẩy sự gia tăng chóng mặt trong việc sử dụng AI tại các thiết bị đầu cuối.

Sự gia tăng này diễn ra sau khi DeepSeek-R1 được phát hành vào tháng 1 năm 2025, chứng minh rằng Trung Quốc có thể sánh ngang — và, trong các nhiệm vụ cụ thể như lập trình, thậm chí có thể vượt trội — các mô hình tiên tiến của Mỹ, theo Doshi. Đối với nhiều nhân viên, sức hấp dẫn của hiệu năng vượt trội và sự dễ dàng vượt qua các bộ lọc của công ty lớn hơn sự thận trọng về địa chính trị. Những yếu tố này tạo ra một dấu ấn khổng lồ, không được giám sát của chip bán dẫn Trung Quốc trong các mạng lưới phương Tây.

Ông khẳng định: “Khả năng tương đương của các mô hình này, kết hợp với xu hướng cung cấp các mô hình có trọng lượng mở của LMArena, đã dẫn đến 50% lượng sử dụng dựa trên điểm cuối.”

Các nhân viên không hề hay biết đã để lộ dữ liệu nhạy cảm.

Như đã đề cập ở trên, đáng báo động là 39,7% các tương tác liên quan đến dữ liệu nhạy cảm. Ít nhất một phần trong số đó là do nhân viên cố tình tải lên thông tin độc quyền như mã nguồn. Điều này cũng dẫn đến những sự cố không mong muốn về tính bảo mật khi người dùng tích hợp các công cụ AI vào quy trình làm việc tiêu chuẩn như CRM và R&D.


Biểu đồ hình tròn thể hiện các loại dữ liệu mà nhân viên nhập vào các công cụ AI, bao gồm mã lập trình, nghiên cứu, bán hàng, nhân sự, tài chính và các thông tin kinh doanh khác.

Các nhân viên đang cung cấp cho các công cụ AI một lượng lớn thông tin kinh doanh nhạy cảm, bao gồm mã nguồn, nghiên cứu, bán hàng, nhân sự và tài chính.


“Trí tuệ nhân tạo (AI) vẫn là một công nghệ tương đối mới, và nhân viên chưa hiểu hết ý nghĩa của việc đưa dữ liệu nhạy cảm vào hệ thống AI. Điều này có nghĩa là dữ liệu của bạn không còn nằm dưới sự kiểm soát của công ty nữa mà nằm trong tay nhà cung cấp AI”, Doshi cho biết.

Tệ hơn nữa, một số nhà cung cấp này thực sự huấn luyện mô hình của họ bằng dữ liệu do người dùng gửi. Tuy nhiên, ông nói thêm, đối với nhân viên, có thể không rõ dữ liệu nào được coi là nhạy cảm hoặc trí tuệ nhân tạo hoạt động như thế nào.

“Do đó, việc thiếu nhận thức về an ninh mạng trong số nhân viên là một vấn đề lớn trong việc sử dụng AI trong doanh nghiệp. Thêm vào đó, sự thiếu nhận thức này là lý do khiến nhiều tổ chức ngần ngại khuyến khích sử dụng AI, thay vào đó chọn chính sách ‘chặn trước’”, ông giải thích.

Tài khoản cá nhân là thủ phạm bị che giấu

Sáu mươi phần trăm việc sử dụng Claude và Perplexity diễn ra thông qua tài khoản cá nhân của nhân viên. Điều này góp phần giúp Shadow AI vượt trội hơn các công cụ chính thức của công ty về trải nghiệm người dùng và tính hữu ích.

Claude và Perplexity là những trường hợp ngoại lệ vì chúng là các công cụ chuyên dụng. Người dùng thường coi Claude là lập trình viên giỏi nhất, còn Perplexity là một công cụ tìm kiếm AI được xây dựng chuyên dụng.

“Tôi tin rằng mọi người sử dụng Claude và Perplexity chủ yếu cho các mục đích này, vì chúng mang lại trải nghiệm người dùng tốt hơn so với các công cụ được doanh nghiệp cho phép,” Doshi nhận định.

Ông đồng ý rằng Trí tuệ nhân tạo bóng tối (Shadow AI) nói chung là một vấn đề ngày càng nghiêm trọng, vì các công cụ AI có thể xử lý thông tin nhạy cảm với tốc độ máy móc. Các bản sao phái sinh của dữ liệu quý giá nhất của một tổ chức có thể nhanh chóng lan rộng ra ngoài tầm kiểm soát tập trung.

Ông nói: "Để chống lại điều này, cần có hệ thống bảo mật dữ liệu và quản trị dữ liệu mạnh mẽ."

Ứng dụng GenAI đầy rủi ro

Báo cáo đã phân loại 82% trong số 100 ứng dụng GenAI hàng đầu là "có rủi ro". Nhưng theo Doshi, điều đó không có nghĩa là thị trường AI cấp doanh nghiệp hiện tại không cung cấp được các tính năng cụ thể mà nhân viên cần.

Biểu đồ bên dưới phân tích mức độ rủi ro giữa các công cụ GenAI SaaS được sử dụng rộng rãi nhất.


Biểu đồ thể hiện mức độ rủi ro của 100 ứng dụng SaaS GenAI hàng đầu, trong đó hầu hết được phân loại là rủi ro trung bình, cao hoặc nghiêm trọng.

Theo Cyberhaven, hơn bốn phần năm trong số các ứng dụng SaaS GenAI được sử dụng rộng rãi nhất được phân loại là có rủi ro trung bình, cao hoặc nghiêm trọng.


Tỷ lệ cao các ứng dụng rủi ro là do nhân viên ưu tiên sự tiện lợi khi sử dụng hơn là các kênh chính thức. Nhiều ứng dụng chuyên biệt này cung cấp các quy trình làm việc đặc thù, không yêu cầu bất kỳ kỹ năng hướng dẫn nào, cho phép người lao động bỏ qua giai đoạn học hỏi.

Lấy NoteGPT làm ví dụ. Nó cung cấp sẵn trình tóm tắt bằng AI, trình phiên âm, trình chuyển đổi PDF và trình soạn thảo văn bản.

“Ngoài ra, nhiều công cụ doanh nghiệp mới hứa hẹn cả tính bảo mật và sự đổi mới thường thiếu các khả năng của các công cụ do nhà phát triển tạo ra và phát hành, hoặc thậm chí cả các công cụ GenAI cơ bản hơn như Claude,” Doshi cảnh báo.

Cái chết của Chatbot và những điều sau đó

Sự chuyển dịch sang các tác nhân nhúng và công cụ lập trình đang mở ra một kỷ nguyên mới. Chatbot AI độc lập, với giao diện kiểu ChatGPT, có thể đang đạt đến đỉnh cao, nhường chỗ cho AI tích hợp, vô hình.

Tuy nhiên, Doshi cho rằng còn quá sớm để khẳng định chắc chắn. Các nhà nghiên cứu chỉ thấy việc ứng dụng AI đang chững lại, trong khi các tác nhân lập trình AI chuyên dụng vẫn tiếp tục phát triển.

“Thay vì cho rằng chatbot đang suy giảm, tôi cho rằng một số công cụ AI, như các tác nhân lập trình, đã làm rất tốt việc ứng dụng AI vào các lĩnh vực chuyên biệt và do đó đang nhận được sự công nhận từ người dùng, dẫn đến sự tăng trưởng,” ông đề xuất.

Dữ liệu cho thấy việc sử dụng AI phổ biến nhất trong giới kỹ sư. Doshi lập luận rằng việc họ sử dụng các công cụ lập trình và các tác nhân nhúng cho quy trình làm việc hàng ngày cụ thể của mình là hợp lý hơn so với một nhân viên tiếp thị có thể cần một công cụ AI thế hệ mới cho các nhiệm vụ cơ bản, đơn lẻ.

Tương lai của AI trong môi trường làm việc sẽ như thế nào?

Theo Doshi, việc sử dụng AI, dù được cho phép hay không, sẽ tiếp tục tăng lên. Số lượng ứng dụng AI được sử dụng và tỷ lệ nhân viên sử dụng chúng sẽ là những tiêu chí quan trọng để đánh giá các công ty đã áp dụng AI hoặc có kế hoạch áp dụng để thúc đẩy năng suất chiến lược.

Một số người gọi năm 2025 là Năm của các tác nhân AI. Mặc dù điều này đúng một phần, ông dự đoán rằng nhiều doanh nghiệp sẽ phát triển và áp dụng các tác nhân AI trong những năm tới.

“Đây mới chỉ là khởi đầu, điều này càng làm cho việc bảo đảm và quản lý các công cụ này trở nên quan trọng hơn bao giờ hết”, ông nhấn mạnh.

Tác giả dangkhoa Admin
Bài viết trước Volvo EX60 báo hiệu sự kết thúc của dòng xe hybrid cắm điện.

Volvo EX60 báo hiệu sự kết thúc của dòng xe hybrid cắm điện.

Bài viết tiếp theo

Phần mềm chống vi-rút tốt nhất để bảo vệ máy tính của bạn vào năm 2026

Phần mềm chống vi-rút tốt nhất để bảo vệ máy tính của bạn vào năm 2026
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899