Đề xuất tăng cường quản lý hệ thống AI có rủi ro cao

09:32, 24/02/2026

Bộ Khoa học và Công nghệ đang xây dựng dự thảo Quyết định của Thủ tướng Chính phủ về việc ban hành Danh mục hệ thống trí tuệ nhân tạo (AI) có rủi ro cao. Việc ban hành danh mục này nhằm thiết lập cơ sở quản lý phù hợp đối với các hệ thống AI có khả năng tác động lớn đến quyền con người, an toàn xã hội và lợi ích công cộng, đồng thời bảo đảm quá trình ứng dụng công nghệ diễn ra minh bạch, an toàn và có trách nhiệm.

Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao được xác định trên cơ sở đánh giá các tiêu chí phân loại rủi ro để xác định các trường hợp sử dụng cụ thể

Theo dự thảo, Danh mục hệ thống AI có rủi ro cao được xác định dựa trên việc đánh giá các tiêu chí phân loại rủi ro nhằm nhận diện rõ các trường hợp sử dụng cụ thể. Nguyên tắc xây dựng danh mục phải bảo đảm tính rõ ràng, minh bạch và khả thi trong thực tiễn áp dụng. Một hệ thống AI được đưa vào danh mục khi kết quả hoạt động của hệ thống được sử dụng làm căn cứ hoặc có ảnh hưởng đáng kể đến các quyết định liên quan đến quyền, nghĩa vụ và lợi ích hợp pháp của tổ chức, cá nhân.

Bên cạnh đó, việc xác định hệ thống có rủi ro cao không chỉ dựa trên công nghệ hay thuật toán mà còn phụ thuộc vào mục đích và bối cảnh sử dụng cụ thể. Những hệ thống có khả năng xảy ra sai lệch hoặc sự cố gây hậu quả nghiêm trọng, khó khắc phục đối với cá nhân, xã hội hoặc lợi ích công cộng; có phạm vi triển khai rộng; hoặc rủi ro không thể kiểm soát đầy đủ bằng các quy định pháp luật hiện hành cũng sẽ được xem xét đưa vào danh mục. Ngoài ra, việc xác định cũng cần bảo đảm có thể áp dụng thống nhất các nghĩa vụ quản lý đối với nhóm hệ thống tương ứng.

Dự thảo đưa ra 5 nhóm tiêu chí chính để nhận diện hệ thống AI có rủi ro cao. Thứ nhất là nhóm tiêu chí về tác động đến quyền con người và quyền, lợi ích hợp pháp của tổ chức, cá nhân, bao gồm khả năng ảnh hưởng đến quyền sống, sức khỏe, tự do cá nhân, quyền riêng tư, quyền bình đẳng, không phân biệt đối xử hoặc khả năng tiếp cận các dịch vụ thiết yếu. Thứ hai là nhóm tiêu chí liên quan đến an toàn, an ninh và lợi ích công cộng, trong đó nhấn mạnh nguy cơ ảnh hưởng đến trật tự xã hội, an ninh mạng, an toàn thông tin hoặc nguy cơ bị lạm dụng gây phương hại đến an ninh quốc gia.

Thứ ba là nhóm tiêu chí về lĩnh vực và bối cảnh sử dụng, tập trung vào các lĩnh vực thiết yếu có tác động trực tiếp đến đời sống xã hội như y tế, giáo dục, lao động, tài chính, bảo hiểm, giao thông, năng lượng, hạ tầng thiết yếu, quản lý nhà nước và tư pháp, hoặc các hệ thống được sử dụng trong cung cấp dịch vụ công. Thứ tư là tiêu chí về mức độ tự động hóa và vai trò kiểm soát của con người, bao gồm khả năng hệ thống tự đưa ra quyết định hoặc khuyến nghị có ảnh hưởng lớn cũng như khả năng giám sát, can thiệp của con người trong quá trình vận hành. Cuối cùng là nhóm tiêu chí về phạm vi người sử dụng và quy mô ảnh hưởng, xét đến số lượng người bị tác động, phạm vi triển khai và hậu quả có thể kéo dài khi xảy ra sự cố.

Trên cơ sở các tiêu chí này, dự thảo đề xuất Danh mục hệ thống AI có rủi ro cao gồm bốn nhóm chính: hệ thống AI tác động đến quyền con người; hệ thống AI ảnh hưởng đến an toàn, an ninh; hệ thống AI trong các lĩnh vực thiết yếu gắn với lợi ích công cộng; và hệ thống AI có quy mô ảnh hưởng lớn hoặc hậu quả khó khắc phục. Việc xây dựng danh mục được kỳ vọng sẽ góp phần hoàn thiện khung pháp lý về trí tuệ nhân tạo tại Việt Nam, đồng thời thúc đẩy phát triển công nghệ theo hướng an toàn, bền vững và có trách nhiệm.