AI mang lại lợi nhưng cũng tiềm ẩn nhiều rủi ro. Ảnh: CNN
AI mang lại lợi nhưng cũng tiềm ẩn nhiều rủi ro. Ảnh: CNN

Rủi ro tiềm ẩn từ Shadow AI

Trong kỷ nguyên mà trí tuệ nhân tạo (AI) đang thay đổi cách thức làm việc, khái niệm “Shadow AI” (AI trong bóng tối) đang nổi lên như một mối đe dọa âm thầm và nghiêm trọng đối với các tổ chức, quốc gia.

Không chỉ là một thuật ngữ kỹ thuật, Shadow AI cho thấy lỗ hổng lớn có thể dẫn đến rò rỉ dữ liệu nhạy cảm, vi phạm quy định pháp lý và thậm chí “mở cửa” cho các cuộc tấn công mạng.

Mối đe dọa an ninh quốc gia

Khái niệm “Shadow AI” đề cập đến việc nhân viên hoặc bộ phận sử dụng các công cụ AI mà không có sự phê duyệt hoặc giám sát từ bộ phận công nghệ thông tin (IT) hoặc an ninh mạng. Theo báo cáo của Tập đoàn công nghệ máy tính đa quốc gia (IBM) của Mỹ về chi phí vi phạm dữ liệu năm 2025, trung bình cho một vụ vi phạm dữ liệu liên quan AI đã tăng vọt lên 4,88 triệu USD, cao hơn 10% so năm trước và Shadow AI là một trong những “thủ phạm” chính góp phần vào con số đáng báo động này.

Tại châu Âu và Mỹ, nơi AI được áp dụng rộng rãi, các chuyên gia cảnh báo, Shadow AI không còn là vấn đề nội bộ doanh nghiệp mà đã trở thành mối đe dọa an ninh quốc gia. “Shadow AI giống như quả bom nổ chậm, nhân viên nghĩ họ đang tăng năng suất nhưng thực tế đang mở cửa cho các mối đe dọa”, Kate Crawford - nhà nghiên cứu AI tại Microsoft Research - nhận định trong cuộc phỏng vấn với CNN.

Theo The Guardian, Shadow AI không phải là một hiện tượng mới, nó kế thừa từ khái niệm “Shadow IT” - việc sử dụng phần mềm hoặc thiết bị không được phê duyệt, từng phổ biến trong thập kỷ trước. Tuy nhiên, với sự bùng nổ của AI tạo sinh như ChatGPT hay Claude, Shadow AI đã tiến hóa thành phiên bản nguy hiểm hơn.

Trong báo cáo của Công ty an ninh mạng Menlo Security (Mỹ), lượng sử dụng Shadow AI trong doanh nghiệp đã tăng khoảng 68% so năm trước, ảnh hưởng đến hơn 60% các tổ chức trên toàn cầu. Điều này xuất phát từ nhu cầu tăng năng suất của nhân viên, do ai cũng muốn công việc nhanh hơn, hiệu quả hơn, các công cụ AI dễ dàng tiếp cận qua internet đáp ứng điều đó mà không cần sự can thiệp từ IT.

Vậy Shadow AI hoạt động như thế nào? Theo The Hacker News, nó thường ẩn náu trong các công cụ năng suất hằng ngày như email, trình soạn thảo văn bản hoặc nền tảng hợp tác nhóm. Nhân viên có thể tích hợp các tiện ích AI của bên thứ ba, như một chatbot để tóm tắt tài liệu nội bộ hoặc trợ lý mã hóa để tạo code, mà không thông báo cho lãnh đạo. Dữ liệu được tải lên có thể được lưu trữ trên máy chủ bên ngoài, không qua mã hóa hoặc kiểm soát.

Tại các doanh nghiệp châu Âu, sự lan rộng của Shadow AI càng nhanh chóng nhờ vào các mô hình mã nguồn mở, dễ tải về và sử dụng. Báo cáo của Varonis tháng 6/2025 cho hay, 91% các công cụ AI được sử dụng mà không qua quản lý IT, thường thông qua nền tảng đám mây như AWS hoặc Google Cloud, nơi dữ liệu có thể bị lộ mà không ai hay biết.

Ông Dale Goss, trưởng nhóm nghiên cứu tại Trường đại học Công nghệ Sydney (Australia), giải thích: “AI bóng tối hoạt động ở chế độ nền, phân tích dữ liệu cá nhân mà không có sự giám sát, dẫn đến rủi ro cao hơn vì người dùng thường không nhận thức được cách dữ liệu được xử lý”. Sự khác biệt lớn nhất so Shadow IT là tính động của AI. Các mô hình học máy có thể huấn luyện trên dữ liệu đầu vào, biến thông tin nội bộ thành tài sản công khai nếu không được bảo vệ.

Trang công nghệ F5 lưu ý rằng Shadow AI tạo ra một bề mặt tấn công rộng lớn hơn, vì nó xử lý dữ liệu thời gian thực mà không có tường lửa bảo vệ. Thí dụ điển hình tại Mỹ là trường hợp của Công ty Samsung, nơi nhân viên tải mã nguồn lên ChatGPT, dẫn đến rò rỉ thông tin độc quyền. Có thể thấy Shadow AI không chỉ là công cụ tiết kiệm thời gian mà còn là “lỗ hổng” dễ dàng bị khai thác nếu không được kiểm soát. Điều này dẫn đến những rủi ro do Shadow AI tạo ra.

Rủi ro lớn nhất từ Shadow AI là rò rỉ dữ liệu - một vấn đề trở nên cấp bách trong năm 2025. Báo cáo về chi phí vi phạm dữ liệu của IBM tiết lộ rằng các vụ vi phạm liên quan AI bóng tối chiếm 14% tổng số vụ việc, với chi phí trung bình tăng 2,5 lần so với năm trước. Dữ liệu nhạy cảm như thông tin nhân khẩu học, hồ sơ tài chính hoặc dữ liệu y tế có thể bị lộ qua các mô hình AI được huấn luyện trên đầu vào người dùng.

Andrew Ng, đồng sáng lập nhóm Google Brain nghiên cứu về AI, cảnh báo: “Dữ liệu cá nhân từ các tương tác AI có thể bị suy luận để lộ thông tin riêng tư như tuổi tác hoặc lịch sử y tế, từ các bộ dữ liệu tưởng chừng ẩn danh”. Vấn đề tuân thủ quy định cũng không kém phần nghiêm trọng. Tại châu Âu, vi phạm “Quy định bảo vệ dữ liệu chung” (GDPR) do Shadow AI có thể dẫn đến mức phạt lên đến 4% doanh thu toàn cầu của doanh nghiệp, như được nhấn mạnh trong báo cáo của Auvik tháng 8/2025.

Tại Mỹ, Shadow AI có thể dẫn đến rò rỉ dữ liệu y tế nhạy cảm. Chuyên gia Satya Nadella của Công ty Microsoft, nhận định: “Shadow AI làm tăng rủi ro thiên kiến và quyết định sai lầm, vì các mô hình không được kiểm soát có thể tạo ra kết quả phân biệt đối xử”.

Bên cạnh đó, rủi ro an ninh mạng từ Shadow AI gồm phần mềm độc hại ẩn náu trong các mô hình AI mã nguồn mở. Báo cáo của Obsidian Security cho hay, các mô hình AI có thể bị chèn mã độc mà không ảnh hưởng đến hiệu suất, dẫn đến các cuộc tấn công nội bộ. Một nghiên cứu của Trường cao đẳng Imperial College London tại Anh chỉ ra rằng, Shadow AI có thể làm tăng 20% số chu kỳ thất bại trong các quy trình y tế như thụ tinh trong ống nghiệm do dữ liệu bị thao túng.

Năm 2025 đã chứng kiến hàng loạt vụ việc thực tế, làm nổi bật tính cấp bách của vấn đề. Báo cáo của Menlo Security tháng 8/2025 ghi nhận sự gia tăng 68% sử dụng Shadow AI tại các công ty Mỹ. Ở Anh, một công ty tài chính bị phạt 10 triệu bảng do nhân viên sử dụng AI không được phê duyệt.

Chiến lược giảm thiểu rủi ro từ Shadow AI

Để đối phó với Shadow AI, các chuyên gia khuyến nghị xây dựng chiến lược toàn diện, kết hợp giữa con người, quy trình và công nghệ, mà việc đào tạo nhân viên là yếu tố then chốt. Ông Josh Buker, chuyên gia tại Công ty Cloud Security Alliance, nhấn mạnh: “Đào tạo là chìa khóa để giảm rò rỉ dữ liệu vô ý, vì hành vi con người là yếu tố chính”. Ngoài ra, các công nghệ giám sát như Cloud Access Security Brokers (CASB) và User and Entity Behavior Analytics (UEBA) được đề xuất để phát hiện Shadow AI thời gian thực. Những công cụ này giúp các tổ chức theo dõi dữ liệu đám mây, hành vi người dùng, giảm thiểu lỗ hổng. Tại Mỹ, các công ty như Palo Alto Networks đã sử dụng AI để giám sát AI giúp giảm 50% rủi ro.

Chính sách “Sử dụng AI chấp nhận được” (AI Acceptable Use Policy - AUP) là nền tảng quan trọng. Theo TASS, AUP là bộ quy tắc và hướng dẫn để điều chỉnh cách nhân viên sử dụng AI một cách có trách nhiệm, đạo đức và hiệu quả. Khoảng 75% các công ty áp dụng AUP giúp giảm rủi ro hơn 30%. Amruta Rajput, nhà nghiên cứu tại Viện Khoa học Ấn Độ, nhận định: “Quản lý Shadow AI đòi hỏi sự cân bằng giữa đổi mới và an ninh, với khung pháp lý linh hoạt”.

Ngoài ra, kiểm toán định kỳ và hợp tác với cơ quan quản lý cũng là giải pháp cần thiết. Tại châu Âu, các tiêu chuẩn từ EU AI Act đã buộc các tổ chức phải đánh giá rủi ro Shadow AI, giúp giảm thiểu vi phạm. Những chiến lược này không chỉ giảm rủi ro mà còn biến Shadow AI thành cơ hội để tối ưu hóa năng suất một cách an toàn.

Shadow AI đại diện cho mặt tối của cuộc cách mạng trí tuệ nhân tạo - một lực lượng có thể mang lại lợi ích khổng lồ nhưng cũng chứa đựng rủi ro khôn lường. Với sự gia tăng nhanh chóng trong năm 2025, từ rò rỉ dữ liệu đến vi phạm pháp lý. Bà Geeta Nargund, chuyên gia tại Bệnh viện St. George’s (Anh), kết luận: “Bằng cách biến Shadow AI thành tài sản được quản lý, chúng ta có thể tận dụng những lợi ích mà không chịu rủi ro”. Tương lai an toàn phụ thuộc vào việc chiếu sáng bóng tối này, bảo đảm AI phục vụ con người mà không gây hại.

Xem thêm