Hoàn thiện hành lang pháp lý cho Luật Trí tuệ nhân tạo (AI): Yêu cầu cấp thiết trong kỷ nguyên số

08:42, 31/10/2025

Hiện nay, khi trí tuệ nhân tạo (AI) phát triển mạnh mẽ, việc xây dựng và hoàn thiện hành lang pháp lý cho công nghệ này đang trở thành yêu cầu cấp thiết. Khi AI ngày càng thâm nhập sâu vào đời sống, sản xuất và quản trị, những khoảng trống pháp lý có thể dẫn tới rủi ro về đạo đức, quyền riêng tư và an ninh thông tin. Loạt bài “Hoàn thiện hành lang pháp lý cho Luật Trí tuệ nhân tạo: Yêu cầu cấp thiết trong kỷ nguyên số” phân tích thực trạng, đề xuất giải pháp để AI phát triển an toàn, minh bạch và bền vững.

Kỳ 1: AI phát triển nhanh hơn luật, cảnh báo khoảng trống pháp lý

Sự bùng nổ của trí tuệ nhân tạo (AI) đang mở ra nhiều cơ hội phát triển, song cũng đặt ra không ít thách thức về quản lý và pháp lý. Khi AI phát triển nhanh hơn tốc độ hoàn thiện của luật pháp, nhiều vấn đề như bản quyền, bảo mật dữ liệu hay trách nhiệm khi AI gây hại vẫn chưa được quy định rõ ràng.

Rủi ro tiềm ẩn từ công nghệ vượt tầm kiểm soát

Trong vài năm trở lại đây, trí tuệ nhân tạo (AI) đã bước ra khỏi phòng thí nghiệm để trở thành một phần tất yếu của đời sống. Từ công cụ hỗ trợ sáng tạo nội dung, tạo hình ảnh, viết văn bản, đến các hệ thống phân tích dữ liệu, quản trị doanh nghiệp, y tế, giáo dục… AI đang góp phần định hình nền kinh tế số và thay đổi cách con người làm việc, sáng tạo.

Hoàn thiện hành lang pháp lý cho Luật Trí tuệ nhân tạo (AI): Yêu cầu cấp thiết trong kỷ nguyên số

Hiện nay, khi trí tuệ nhân tạo (AI) phát triển mạnh mẽ, việc xây dựng và hoàn thiện hành lang pháp lý cho công nghệ này đang trở thành yêu cầu cấp thiết. (Ảnh minh họa)

Tại Việt Nam, việc ứng dụng AI đã lan rộng trong nhiều lĩnh vực. Các cơ quan nhà nước bắt đầu triển khai hệ thống phân tích dữ liệu, dự báo xu hướng; doanh nghiệp tận dụng AI để tối ưu hóa sản xuất, chăm sóc khách hàng; người dân ngày càng quen với các tiện ích như nhận diện khuôn mặt, trợ lý ảo, dịch tự động. Tuy nhiên, sự phát triển nhanh chóng này đang vượt xa năng lực điều chỉnh của hệ thống pháp luật hiện hành.

Năm 2021, Chính phủ ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030, trong đó nêu rõ mục tiêu “đưa Việt Nam trở thành trung tâm đổi mới sáng tạo và phát triển giải pháp AI hàng đầu khu vực”. Song, chiến lược chỉ mang tính định hướng, không có giá trị điều chỉnh cụ thể các quan hệ pháp lý phát sinh từ hoạt động phát triển và ứng dụng AI.

Trước đây, một số quy định liên quan đến AI nằm rải rác trong các văn bản pháp luật khác, như Luật An ninh mạng 2018, Luật Sở hữu trí tuệ 2022 (sửa đổi), Luật Công nghệ cao 2008, hay Nghị định về bảo vệ dữ liệu cá nhân (ban hành 2023). Tuy nhiên, các quy định này chủ yếu đề cập đến an toàn thông tin, quyền sở hữu, hoặc dữ liệu cá nhân nói chung, chưa có điều khoản chuyên biệt dành cho hoạt động của AI.

Mới đây, Quốc hội đã ban hành Luật Công nghiệp công nghệ số, trong đó có một chương quy định về AI. Đây là nền tảng pháp lý ban đầu mang tính nguyên tắc cho việc phát triển và ứng dụng AI. Tuy nhiên, các nội dung quy định này chưa hình thành một hành lang pháp lý toàn diện, đủ thông thoáng để tạo thuận lợi cho việc nghiên cứu, phát triển, triển khai và sử dụng AI và hệ sinh thái toàn diện về AI.

Bên cạnh đó, chúng ta đang thiếu cơ chế phân loại, kiểm soát rủi ro hệ thống AI; thiếu cơ chế kiểm định, cấp phép và giám sát các hệ thống AI, đặc biệt hệ thống AI có rủi ro cao; thiếu cơ chế, chính sách phát triển và thu hút nhân lực AI chất lượng cao. Điều đáng nói, chúng ta đang thiếu khoảng trống về trách nhiệm pháp lý khi AI gây thiệt hại. Chính khoảng trống pháp lý này là một trong những thách thức rất lớn khi xử lý vấn đề hậu quả do AI gây ra.

Sự thiếu vắng hành lang pháp lý khiến cho AI vừa là cơ hội, vừa là thách thức lớn đối với xã hội. Khi chưa có luật điều chỉnh cụ thể, việc xác định trách nhiệm pháp lý, bảo đảm quyền con người, quyền sở hữu trí tuệ và bảo mật dữ liệu cá nhân trở nên khó khăn.

Một ví dụ điển hình là tranh chấp về quyền tác giả với tác phẩm do AI tạo ra. Theo Luật Sở hữu trí tuệ hiện hành, tác phẩm phải do con người sáng tạo và thể hiện dưới hình thức vật chất nhất định mới được bảo hộ. Vì vậy, các sản phẩm do AI tạo ra như tranh vẽ, bài viết, âm nhạc không đủ điều kiện để đăng ký bản quyền. Tuy nhiên, thực tế, nhiều doanh nghiệp và cá nhân đã sử dụng các công cụ AI để sản xuất nội dung thương mại. Khi xảy ra tranh chấp, cơ quan quản lý rất khó xác định chủ thể quyền sở hữu, dẫn đến rủi ro trong thực thi pháp luật.

Một vấn đề khác là quản lý dữ liệu cá nhân và thông tin đầu vào cho các mô hình AI. Hầu hết các hệ thống học máy hiện nay đều cần lượng dữ liệu khổng lồ để huấn luyện. Nếu nguồn dữ liệu này chứa thông tin riêng tư hoặc nhạy cảm, việc thu thập và xử lý không đúng quy định có thể xâm phạm quyền của cá nhân. Mặc dù Nghị định về bảo vệ dữ liệu cá nhân đã ban hành, song các quy định vẫn còn chung chung, chưa chỉ rõ trách nhiệm của tổ chức, doanh nghiệp khi triển khai AI…

Đặt nền móng cho Luật Trí tuệ nhân tạo

Ngoài ra, AI có thể bị lạm dụng vào các mục đích xấu. Một số công cụ sinh nội dung có thể tạo ra hình ảnh, giọng nói, video giả mạo người thật, gây tổn hại đến danh dự, uy tín của cá nhân, thậm chí tác động đến dư luận xã hội. Trong khi đó, việc xử lý, chứng minh nguồn gốc nội dung do AI tạo ra hiện rất phức tạp, vì thiếu cơ chế kiểm định và quy trình pháp lý cụ thể.

Các chuyên gia cảnh báo, nếu Việt Nam không sớm xây dựng hành lang pháp lý cho trí tuệ nhân tạo, chúng ta sẽ đối mặt với nguy cơ bị động: vừa không bảo đảm an toàn thông tin, vừa khó bảo vệ người dân, doanh nghiệp trước các rủi ro công nghệ. Luật pháp cần đi trước một bước để định hình sự phát triển, thay vì “chạy theo” khi hậu quả đã xảy ra.

Phát biểu tại Tọa đàm “Bảo vệ dữ liệu và an ninh mạng trong kỷ nguyên vươn mình của dân tộc”, do báo Nhân Dân tổ chức, Trung tướng Nguyễn Minh Chính - Phó Chủ tịch Thường trực Hiệp hội An ninh mạng Quốc gia, cho rằng, hiện nay khoa học công nghệ phát triển mạnh với nhiều công nghệ mới như trí tuệ nhân tạo, năng lượng nguyên tử, dữ liệu lớn…

Hoàn thiện hành lang pháp lý cho Luật Trí tuệ nhân tạo (AI): Yêu cầu cấp thiết trong kỷ nguyên số

Các chuyên gia cho rằng, Việt Nam cần bắt đầu xây dựng Luật Trí tuệ nhân tạo trên tinh thần “mở nhưng kiểm soát rủi ro”.

Tuy nhiên, trong những năm qua, nước ta là một trong những quốc gia chịu nhiều cuộc tấn công mạng. Các đối tượng tấn công đánh cắp dữ liệu, đánh cắp bí mật Nhà nước, sau đó có thể mã hóa, vô hiệu hóa, phá hoại hệ thống thông tin, gây hậu quả lớn cho an toàn quốc gia và đời sống xã hội. Bên cạnh đó, các đối tượng cũng tấn công để mã hóa dữ liệu, đòi tiền chuộc.

Bên cạnh đó, chúng ta đang phải đối mặt với thông tin giả, thông tin sai sự thật và thông tin xấu độc tấn công vào nền tảng tư tưởng của Đảng, bôi xấu lãnh đạo, phá hoại chia rẽ đoàn kết nhân dân…

“Vấn đề thể chế, pháp luật, dù đã có khung pháp lý, song vẫn còn nhiều điểm chưa hoàn thiện. Chẳng hạn, với AI đang được sử dụng rộng rãi, chúng ta chưa có quy định cụ thể về phạm vi, cách thức sử dụng, hay biện pháp ngăn chặn nguy cơ công nghệ này bị lợi dụng để đánh cắp dữ liệu, đặc biệt trong hệ thống chính trị, cơ quan nhà nước và doanh nghiệp.

Bên cạnh đó, còn thiếu các quy định, tiêu chuẩn và cơ chế kiểm soát chất lượng phần mềm được đưa vào sử dụng. Khi xảy ra sự cố, hậu quả để lại có thể rất nghiêm trọng. Vì vậy, dù thời gian qua chúng ta đã xây dựng nhiều văn bản pháp lý, nhưng vẫn cần tiếp tục hoàn thiện”, ông Chính nhấn mạnh.

Do vậy, Việt Nam cần bắt đầu xây dựng Luật Trí tuệ nhân tạo trên tinh thần “mở nhưng kiểm soát rủi ro”. Luật cần đảm bảo ba nguyên tắc: Thứ nhất, khuyến khích nghiên cứu, sáng tạo, ứng dụng AI vào đời sống kinh tế - xã hội. Thứ hai, bảo đảm an toàn, minh bạch và trách nhiệm trong toàn bộ vòng đời của hệ thống AI. Thứ ba, tôn trọng và bảo vệ quyền con người, đặc biệt là quyền riêng tư và quyền được thông tin chính xác.

Để làm được điều đó, Việt Nam cần xác định rõ phạm vi điều chỉnh, xây dựng tiêu chuẩn kỹ thuật, cơ chế kiểm định và đánh giá rủi ro cho các ứng dụng AI. Đồng thời, phải có quy định về đạo đức trong nghiên cứu và sử dụng AI, ngăn ngừa tình trạng lạm dụng công nghệ.

(Còn nữa)

Cùng với sự phát triển thần tốc của AI là hàng loạt vấn đề xã hội nảy sinh, từ quyền con người cho đến an ninh quốc gia. Nhận thức rõ điều đó, Việt Nam đã ban hành Chiến lược quốc gia về AI đến năm 2030, đặt mục tiêu đưa nước ta vào nhóm 4 quốc gia dẫn đầu ASEAN về nghiên cứu và ứng dụng AI. Đây là một định hướng đúng đắn, thể hiện tầm nhìn dài hạn. Tuy nhiên, để đạt được mục tiêu này, chúng ta không chỉ cần đẩy mạnh nghiên cứu, ứng dụng, mà còn phải sớm giải quyết những khoảng trống pháp lý và các vấn đề đạo đức đi kèm.