Nguy cơ rủi ro an toàn thông tin đến từ trí tuệ nhân tạo
Sự bùng nổ, phát triển của khoa học công nghệ, nhất là trí tuệ nhân tạo (AI) đang đem lại nhiều lợi ích, giúp tăng hiệu suất trên rất nhiều lĩnh vực của đời sống xã hội và tiện nghi cuộc sống cho con người. Tuy nhiên, đi kèm với cơ hội là không ít các rủi ro, thách thức từ sự phát triển quá nhanh chóng của công nghệ.

Số liệu do chính các chatbot AI cung cấp cho thấy, khoảng 60% các truy vấn mà người dùng gửi đến được bổ sung bằng dữ liệu người dùng dưới dạng tập tin, bảng tính, tài liệu tải lên hoặc nhập liệu trực tiếp. Có nghĩa là một phần đáng kể trong tương tác với AI liên quan đến việc người dùng muốn phân tích hoặc xử lý dữ liệu của riêng họ thay vì chỉ tìm kiếm thông tin chung. Điều này đặt ra những lo ngại về vấn đề bảo mật thông tin.
GS. Toby Walsh tại Viện Trí tuệ nhân tạo, Đại học New South Wales, Australia cho biết: “Bạn nên biết rằng bất cứ điều gì bạn nhập vào đó, bạn đang chia sẻ nó, vì vậy, bạn nên rất cẩn thận khi chia sẻ bất kỳ thông tin nhạy cảm, bất kỳ thông tin riêng tư nào”.
Sự phát triển của các mô hình AI mã nguồn mở được chia sẻ công khai cũng dẫn đến những lo ngại sẽ bị AI bị lợi dụng.
GS. Angela Zhang tại Đại học Nam California, Mỹ cho rằng: “Luôn có một mối lo ngại tiềm ẩn với các mô hình mã nguồn mở vì chúng có khả năng rơi vào tay những kẻ xấu”.
Ngoài ra, trong trường hợp thiếu quản trị hiệu quả, các nền tảng AI có thể làm phức tạp thêm các nguy cơ bị lợi dụng tạo ra các thông tin lừa đảo, tiến hành các cuộc tấn công đánh cắp thông tin hay làm gia tăng chia rẽ, phân biệt dựa trên các phân tích xu hướng truyền thông xã hội.
Tổng Thư ký Liên hợp quốc Antonia Guterres khẳng định: “Nếu không được quản lý, AI có thể được sử dụng như một công cụ lừa dối. Nó có thể phá vỡ nền kinh tế và thị trường lao động, làm suy giảm niềm tin vào các thể chế và tạo ra những tác động đáng ngại trên chiến trường”.
Ông Borge Brende, Chủ tịch Diễn đàn Kinh tế thế giới (WEF) cho biết: “Tôi nghĩ những thuật toán này nên được con người kiểm soát chứ không phải để thuật toán kiểm soát con người”.
Bên cạnh đó, giới chuyên gia cũng lo ngại về độ tin cậy của các thông tin phản hồi, mức độ chất lượng dữ liệu đào tạo đầu vào của các nền tảng AI, thậm chí là các thành kiến hoặc ảnh hưởng thể chế trong việc phát triển mô hình này.
Hiện chính phủ các quốc gia đều đang tìm cách kiểm soát các ứng dụng AI khi công nghệ này ngày càng được sử dụng rộng rãi hơn, nhằm đảm bảo sử dụng AI theo hướng có lợi cho con người, đồng thời hạn chế tối đa những rủi ro tiềm ẩn. Vừa qua, kể từ ngày 02/2/2025, những quy định đầu tiên của Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu đã có hiệu lực thi hành.
Ở quy mô quốc tế, Liên hợp quốc đang xây dựng hai cơ chế mới để làm nền móng cho khuôn khổ quản trị toàn cầu về AI trong tương lai.