8 rủi ro bảo mật thường bị bỏ qua trong cuộc đua triển khai AI
Trong bối cảnh làn sóng ứng dụng AI đang diễn ra mạnh mẽ, nhiều tổ chức, doanh nghiệp đang mắc phải sai lầm nghiêm trọng là bỏ qua các yếu tố bảo mật cơ bản.
Theo một nghiên cứu mới của Diễn đàn Kinh tế Thế giới (WEF) phối hợp cùng Accenture, có tới 63% DN không tiến hành đánh giá bảo mật trước khi triển khai các công cụ AI.
Việc lơ là bảo mật trong quá trình triển khai AI không chỉ giới hạn ở các công cụ thương mại mà còn xuất hiện phổ biến trong các hệ thống phát triển nội bộ. Theo báo cáo Quality Transformation (Chuyển đổi chất lượng) 2025 của Tricentis, phần lớn các nhóm kỹ thuật hiện nay vẫn đặt ưu tiên vào tốc độ ra mắt sản phẩm (45%) hơn là chất lượng phần mềm (13%). Điều đáng lo ngại là 32% chuyên gia được khảo sát thừa nhận phần mềm kém chất lượng sẽ dẫn đến nguy cơ vi phạm bảo mật hoặc lỗi tuân thủ nhiều hơn.
Một bức tranh tổng thể cũng cho thấy mức độ rủi ro đáng báo động: Báo cáo Cybersecurity Readiness Index (Chỉ số Sẵn sàng An ninh mạng) do Cisco công bố hồi đầu tháng 5/2025 cho biết, có tới 86% tổ chức từng đối mặt với ít nhất một sự cố bảo mật liên quan đến AI trong vòng 1 năm qua. Dù vậy, chỉ 45% DN tin rằng họ có đủ nguồn lực và năng lực chuyên môn để tiến hành đánh giá bảo mật chuyên sâu cho các hệ thống AI.
Có tới 86% tổ chức từng đối mặt với ít nhất một sự cố bảo mật liên quan đến AI trong vòng một năm qua.
Những rủi ro bảo mật thường bị bỏ qua
Theo các chuyên gia an ninh mạng được Tạp chí CSO phỏng vấn, có ít nhất 8 rủi ro bảo mật phổ biến nhưng dễ bị lãng quên trong quá trình triển khai AI:
Rò rỉ dữ liệu
AI thường xử lý lượng lớn dữ liệu nhạy cảm. Nếu thiếu kiểm soát, dữ liệu có thể bị rò rỉ qua các kênh như lưu trữ không an toàn, phản hồi API vượt mức hoặc kiểm soát truy cập yếu.
“Nếu không kiểm toán việc xử lý dữ liệu, khả năng rò rỉ thông tin qua đầu ra mô hình, nhật ký hệ thống hoặc dữ liệu huấn luyện là rất cao", ông Peter Garraghan, CEO của công ty bảo mật AI Mindgard, cảnh báo.
Lỗ hổng cấp độ mô hình
Các cuộc tấn công như prompt injection (Tấn công tiêm mã nhanh), jailbreak (quá trình khai thác các lỗi của một thiết bị điện tử bị khóa để cài đặt phần mềm khác với phần mềm mà nhà sản xuất đã cung cấp cho thiết bị đó) hay chaining (tấn công mạng kết hợp nhiều lỗ hổng hoặc cách khai thác khác nhau để xâm nhập và tấn công mục tiêu từ cấp độ gốc) có thể lợi dụng các điểm yếu trong cơ chế điều chỉnh mô hình để vượt qua giới hạn hoặc chiếm quyền điều khiển đầu ra.
Tấn công thao túng mô hình
Nếu dữ liệu đầu vào bị điều chỉnh hoặc dữ liệu huấn luyện bị nhiễm độc, mô hình AI có thể đưa ra quyết định sai lệch.
“Kẻ tấn công có thể sử dụng dữ liệu độc hại để đánh lừa AI, từ đó thao túng quyết định,” ông Jano Bermudes, Giám đốc vận hành (COO) của công ty tư vấn an ninh mạng CyXcel, nhận định.
Rủi ro trong tích hợp hệ thống
Việc tích hợp AI vào hệ sinh thái ứng dụng qua API (Giao diện lập trình ứng dụng) hoặc plugin (một phần mềm hoặc chương trình bổ trợ được thiết kế để mở rộng chức năng của một ứng dụng hoặc trang web hiện có) nếu không được kiểm thử đúng cách có thể mở ra lỗ hổng bảo mật nghiêm trọng, bao gồm cả leo thang đặc quyền và tấn công qua dữ liệu tuần tự.
Lỗi kiểm soát truy cập
Kết nối sai cấu hình có thể khiến AI cấp quyền truy cập ngoài ý muốn, điển hình là rò rỉ API key (khóa giao diện lập trình ứng dụng) hoặc thiếu giám sát truy cập.
Lỗi thời gian chạy (runtime)
Một số lỗ hổng như logic bị phá vỡ hoặc tràn ngữ cảnh chỉ xuất hiện trong quá trình AI vận hành thực tế, khiến chúng khó bị phát hiện trong các giai đoạn kiểm thử truyền thống.
Vi phạm quy định pháp lý
Các công cụ AI có thể tự động xử lý dữ liệu cá nhân hoặc vượt quá phạm vi cho phép, dẫn đến vi phạm các quy định như GDPR (Quy định bảo vệ dữ liệu chung) hoặc các luật về an toàn thông tin.
Tác động vận hành rộng hơn
“Những lỗ hổng kỹ thuật nếu không được xử lý có thể trở thành rủi ro vận hành, ảnh hưởng đến toàn bộ tổ chức”, ông Garraghan nhận xét.
Sam Peters, Giám đốc Sản phẩm tại ISMS.online, cho biết các DN thường xuyên bỏ qua ba điểm cốt lõi: toàn vẹn mô hình, quyền riêng tư dữ liệu, và lỗ hổng trong quản trị. “Đây không còn là rủi ro tiềm năng - chúng đang xảy ra hàng ngày", ông nói thêm.
Cần cách tiếp cận bảo mật chuyên sâu
Trong bối cảnh các bộ phận an ninh thông tin phải đối mặt với áp lực ra mắt nhanh, chuyên gia James Lei từ Sparrow khuyến nghị: "Hãy kiểm thử AI như một phần mềm có rủi ro cao." Cụ thể, các DN cần:
Kiểm thử xâm nhập: Mô phỏng các cuộc tấn công nhằm tìm ra các điểm yếu.
Đánh giá thiên vị và công bằng: Đảm bảo mô hình đưa ra quyết định chính xác và không phân biệt đối xử.
Kiểm tra tuân thủ: Đảm bảo công cụ AI đáp ứng các tiêu chuẩn pháp lý và đạo đức.
Đồng thời, các tổ chức nên áp dụng các khung kiểm thử chuyên biệt cho AI như:
- Phân tích tĩnh mô hình (static analysis)
- Fuzz testing (một kỹ thuật kiểm thử phần mềm tự động liên quan đến việc cung cấp dữ liệu không hợp lệ, không mong muốn hoặc ngẫu nhiên làm đầu vào cho một chương trình máy tính)
- Mô phỏng tấn công ở lớp tích hợp
- Giám sát hành vi theo thời gian thực
Theo ông Peters, tiêu chuẩn quốc tế mới ISO/IEC 42001 sẽ là công cụ hữu ích giúp DN thiết lập một khung quản trị AI bền vững, bao gồm kiểm soát rủi ro, quản lý dữ liệu và theo dõi liên tục.
Trong khi AI đang trở thành “trợ thủ” đắc lực cho năng suất và đổi mới, việc bỏ qua bảo mật có thể khiến DN phải trả giá đắt. Không thể chỉ kỳ vọng vào những gì AI có thể làm — mà còn phải hiểu rõ những gì nó có thể gây ra.