Hoàn thiện khuôn khổ pháp lý về trí tuệ nhân tạo
Góp ý cho dự án Luật Trí tuệ nhân tạo (AI), nhiều đại biểu Quốc hội cho rằng, khuôn khổ pháp lý về AI cần đạt được sự cân bằng giữa thúc đẩy đổi mới sáng tạo, thu hút đầu tư, nâng cao năng lực cạnh tranh với kiểm soát rủi ro và bảo vệ người dùng.
Quản lý AI theo mức độ rủi ro: Tôn trọng quyền riêng tư, lấy con người làm trung tâm
Chiều 27/11/2025, dưới sự điều hành của Phó Chủ tịch Quốc hội Lê Minh Hoan, Quốc hội thảo luận tại hội trường về dự án Luật AI. Một trong những nội dung được các đại biểu Quốc hội (ĐBQH) quan tâm là việc xác định giải pháp quản lý theo cấp độ rủi ro mà AI có thể gây ra đối với đời sống, kinh tế - xã hội.

Quốc hội thảo luận tại hội trường về dự án Luật Trí tuệ nhân tạo (Nguồn: quochoi.vn).
Thảo luận về quy định phân loại rủi ro và danh mục hệ thống AI rủi ro cao (Điều 11 và 12), đại biểu Thạch Phước Bình (Đoàn ĐBQH Vĩnh Long) nhấn mạnh: phân loại rủi ro là “linh hồn” của Luật AI. Tuy nhiên, dự thảo hiện chưa đưa ra được các tiêu chí định lượng phân loại tiêu chuẩn, trong khi danh mục hệ thống AI “rủi ro cao” vẫn còn khá rộng, bao trùm nhiều lĩnh vực mà thực tiễn chưa ghi nhận rủi ro đáng kể. Điều này có thể trở thành “gánh nặng tuân thủ” không cần thiết, đặc biệt với doanh nghiệp (DN) nhỏ và vừa.
Từ đó, đại biểu Thạch Phước Bình đề xuất ba nhóm giải pháp:
Thứ nhất, rà soát lại danh mục rủi ro cao, chỉ tập trung vào những hệ thống có thể gây tác động lớn đến quyền con người, quyền riêng tư, sức khỏe, tài chính và an toàn xã hội.
Thứ hai, thiết lập cơ chế cập nhật linh hoạt danh mục rủi ro cao dựa trên tư vấn của chuyên gia, hiệp hội ngành hàng và các tổ chức nghiên cứu.
Thứ ba, gắn tiêu chuẩn rủi ro vào các đặc tính kỹ thuật của mô hình như mức độ tự động hóa, khả năng tự học, tính khó dự đoán và quy mô sử dụng.
Đề cập đến vấn đề dữ liệu, quyền riêng tư và bảo vệ người dùng (Điều 14 - 18), đại biểu Thạch Phước Bình cho rằng dữ liệu là “nhiên liệu” của AI, nhưng các quy định hiện hành chưa đồng bộ với dự thảo Luật Bảo vệ dữ liệu cá nhân. Theo ông, cần làm rõ phạm vi xử lý được phép đối với dữ liệu nhạy cảm như dữ liệu cảm biến, dữ liệu trẻ em và dữ liệu sinh trắc học; đồng thời bổ sung định nghĩa về dịch vụ đánh giá tác động dữ liệu khi phát triển hệ thống AI rủi ro cao.
Nêu quan điểm về các nội dung thảo luận, đại biểu Nguyễn Thị Tuyết Nga (Đoàn ĐBQH tỉnh Quảng Trị) khẳng định rằng, bên cạnh những cơ hội lớn, AI cũng đặt ra nhiều thách thức mới về an toàn, bảo mật dữ liệu, đạo đức công nghệ và trách nhiệm pháp lý. Vì vậy, việc ban hành Luật AI là hết sức cần thiết. Đây không chỉ là công cụ quản lý rủi ro mà còn là “đòn bẩy” quan trọng để thúc đẩy đổi mới sáng tạo (ĐMST), bảo vệ quyền lợi người dân và nâng cao năng lực cạnh tranh quốc gia trong thời đại số.
Tuy nhiên, theo ĐBQH Nguyễn Thị Tuyết Nga quá trình xây dựng Luật AI đang đối mặt với nhiều thách thức. Cụ thể:
Thứ nhất, tính đa dạng và tốc độ phát triển nhanh của công nghệ. AI bao gồm nhiều loại hình khác nhau, mỗi loại mang theo những rủi ro riêng, đòi hỏi luật phải đủ linh hoạt để điều chỉnh nhưng không kìm hãm đổi mới.
Thứ hai, yêu cầu cân bằng giữa đổi mới và quản lý. Nếu quy định quá chặt sẽ hạn chế nghiên cứu và phát triển; nhưng nếu quá lỏng, sẽ không đủ để bảo vệ người dân và xã hội trước các rủi ro mới.
Thứ ba, vấn đề pháp lý - đạo đức - xã hội mang tính đa chiều. AI tác động trực tiếp đến quyền riêng tư, công bằng, việc làm, an ninh và các giá trị đạo đức. Do đó, Luật AI phải hài hòa giữa quyền cá nhân, lợi ích cộng đồng và phát triển kinh tế.
Thứ tư, khó dự đoán lỗi và hậu quả. Các mô hình AI thế hệ mới có thể tạo ra hành vi chưa từng được thực hiện trước đó. Một đạo luật “quá sớm” hoặc “quá cứng” có thể không hiệu quả.
Thứ năm, sự thiếu đồng bộ với chuẩn mực quốc tế. AI là công nghệ toàn cầu; nếu luật trong nước khác biệt lớn so với tiêu chuẩn quốc tế sẽ gây khó khăn cho hợp tác, kiểm soát rủi ro và cạnh tranh quốc tế.
Từ những phân tích trên, đại biểu Nguyễn Thị Tuyết Nga nhấn mạnh sự đồng thuận với quan điểm rằng, Luật AI phải bảo đảm nguyên tắc phát triển đi đôi với quản lý, lấy con người làm trung tâm, tôn trọng quyền riêng tư và quản lý dựa trên mức độ rủi ro. Luật cần linh hoạt, hài hòa với tiêu chuẩn quốc tế để không cản trở ĐMST.
Việc quy định khung pháp lý ở tầm luật là tối ưu, giúp thiết lập các nguyên tắc nền tảng, còn các quy định chi tiết để văn bản dưới luật nhằm thích ứng kịp thời với sự biến đổi nhanh của công nghệ, đảm bảo quản lý hiệu quả mà không làm chậm sự phát triển của AI.
Theo đại biểu, phát triển AI bền vững đòi hỏi một hệ sinh thái ba bên, trong đó Nhà nước tạo “luật chơi”, thị trường là chủ thể tham gia và xã hội thực hiện giám sát. Xác định đúng vai trò của mỗi thành phần sẽ bảo đảm AI phát triển thành công, mang lại lợi ích thiết thực cho mọi người.
Trên cơ sở đó, đại biểu Phạm Trọng Nghĩa (Đoàn ĐBQH tỉnh Lạng Sơn) nhấn mạnh rằng, các quy định pháp lý về AI phải bảo đảm cân bằng giữa hai yêu cầu: một bên là thúc đẩy ĐMST, thu hút đầu tư và tăng tính cạnh tranh; bên còn lại là phòng ngừa, hạn chế rủi ro và bảo vệ người sử dụng. Đây cũng là hai trụ cột chính của Luật AI.
Từ thực tiễn đó, đại biểu Phạm Trọng Nghĩa đề nghị Cơ quan soạn thảo tiếp tục rà soát, làm nổi bật những ưu điểm của dự thảo Luật, đặc biệt khi so sánh với quốc gia khác, để kịp thời chỉnh sửa, bổ sung, bảo đảm tính khả thi và góp phần nâng cao năng lực cạnh tranh quốc gia. Trong đó, ông đề nghị bổ sung quy định ưu đãi và ưu tiên sử dụng sản phẩm AI Việt Nam, đặc biệt trong các dự án sử dụng nguồn lực công, với quan điểm Nhà nước phải là “khách hàng đầu tiên” của AI Việt.
Nguyên tắc tối cao: AI phải phục vụ con người, không thay thế vai trò quyết định của con người
Giải trình các ý kiến của ĐBQH về quản lý rủi ro từ AI, Bộ trưởng Bộ Khoa học và Công nghệ (KH&CN) Nguyễn Mạnh Hùng nhấn mạnh, sự cần thiết phải ban hành Luật AI sớm nhằm giúp Việt Nam phát triển AI một cách chủ động và có hệ thống, tạo môi trường thuận lợi để thu hút đầu tư và thúc đẩy phát triển đất nước nhanh, chắc chắn.

Bộ trưởng Bộ KH&CN Nguyễn Mạnh Hùng nhấn mạnh sự cần thiết phải ban hành Luật AI sớm, nhằm giúp Việt Nam phát triển AI một cách chủ động và có hệ thống (Nguồn: quochoi.vn).
Về phương thức quản lý rủi ro do AI gây ra, Bộ trưởng cho biết, Nhà nước sẽ yêu cầu đánh giá rủi ro, kiểm tra thử nghiệm độc lập và thiết lập cơ chế xử lý khi rủi ro trở thành hiện thực. Công tác quản lý sẽ dựa trên tiêu chuẩn an toàn, cơ chế kiểm tra hậu kiểm và các chế tài tài chính khi xảy ra hậu quả.
Theo Bộ trưởng, quản trị AI không phải là phát minh ra một mô hình quản lý hoàn toàn mới, mà là kế thừa kinh nghiệm quản lý trí tuệ của con người để áp dụng vào một công cụ mạnh hơn và nhanh hơn.
Về định hướng phát triển AI lấy con người làm trung tâm, Bộ trưởng Nguyễn Mạnh Hùng khẳng định: nguyên tắc tối cao là AI phải phục vụ con người, không thay thế vai trò quyết định của con người. Yêu cầu minh bạch là người dân phải biết khi nào họ đang tương tác với AI và phải có cơ chế xác định trách nhiệm pháp lý khi AI gây thiệt hại. Cơ quan soạn thảo đã bổ sung các quy định về trách nhiệm giải quyết của những bên liên quan, bao gồm nhà phát triển, nhà cung cấp, đơn vị triển khai và người sử dụng.
Về quản lý AI dựa trên mức độ rủi ro, Bộ trưởng cho biết dự thảo Luật đã tiếp thu nhiều ý kiến của ĐBQH theo hướng phân loại thành ba mức rủi ro (thấp, trung bình và cao); đồng thời bổ sung một điều riêng quy định về các hành vi bị cấm trong hoạt động AI.
Đối với yêu cầu tiền kiểm các hệ thống AI rủi ro cao, dự thảo Luật đã đưa ra đưa ra hình thức, nghĩa vụ tối thiểu trước khi triển khai cộng với hậu kiểm.
Các đại biểu nhận định rằng, nếu được hoàn thiện theo hướng phù hợp, Luật AI sẽ đảm bảo tính đồng bộ với hệ thống pháp luật hiện hành, đảm bảo tính khả thi, tạo động lực ĐMST và tạo điều kiện cho Việt Nam phát triển AI theo hướng chủ động, an toàn và bền vững./.
