Hoàn thiện pháp lý để quản lý hiệu quả trí tuệ nhân tạo trong kỷ nguyên số

09:05, 16/10/2024

Tại thời điểm này Việt Nam cần phải có cơ sở pháp lý điều chỉnh về trí tuệ nhân tạo để phát triển thế mạnh, lợi thế của AI đồng thời hạn chế tác động bất lợi trong nghiên cứu, ứng dụng, phát triển công nghệ AI.

AI không chỉ mở ra cơ hội phát triển cho các ngành công nghiệp mà còn giúp nâng cao năng lực cạnh tranh quốc gia, góp phần thúc đẩy phát triển kinh tế - xã hội và bảo đảm an ninh quốc gia. Với khả năng tự động hóa và xử lý dữ liệu khổng lồ, AI đã và đang cách mạng hóa nhiều lĩnh vực như y tế, giáo dục, nông nghiệp, giao thông và thương mại điện tử.

Tuy nhiên, việc ứng dụng AI cũng đem lại nhiều thách thức đáng kể. Những vấn đề về quyền riêng tư, bảo mật dữ liệu cá nhân, an ninh việc làm và các tiêu chuẩn đạo đức trong phát triển và triển khai AI đang đặt ra nhiều câu hỏi đối với nhà quản lý và các tổ chức.

Trước thách thức đó, cộng đồng quốc tế đã bắt đầu đưa ra biện pháp quản lý nhằm đảm bảo việc sử dụng AI một cách an toàn và có trách nhiệm.

Tại Việt Nam, Góp ý Dự thảo Luật Công nghiệp công nghệ số, các chuyên gia đưa ra một số đề xuất hoàn thiện quy định về trí tuệ nhân tạo (AI) nhằm bảo đảm phát triển AI có trách nhiệm. Theo tờ trình của Chính phủ, Dự thảo Luật Công nghiệp công nghệ số (Dự thảo) gồm 08 Chương, 73 Điều. Dự thảo đã thể hiện rõ các nội dung cần thiết để phát triển ngành công nghiệp công nghệ số bao gồm nghiên cứu và phát triển công nghệ số; hạ tầng cho công nghiệp công nghệ số; hệ sinh thái công nghiệp công nghệ số; doanh nghiệp công nghệ số; sản phẩm, dịch vụ công nghệ số; tiêu chuẩn và quy chuẩn kỹ thuật; nhân lực cho công nghiệp công nghệ số. Đồng thời, Dự thảo khẳng định giá trị pháp lý của công nghiệp công nghệ số; hình thành các quy định, chính sách để thúc đẩy phát triển công nghiệp công nghệ số.

Đặc biệt, thực hiện chỉ đạo của Chính phủ, căn cứ tình hình thực tế, Bộ Thông tin và Truyền thông đã đề xuất bổ sung nội dung về tài sản số, AI và điều chỉnh nội dung “vi mạch bán dẫn” thành “bán dẫn”. Trong đó, Dự thảo dành riêng một chương quy định về AI với định hướng đây là một trong các công nghệ số cốt lõi nhất. Dự thảo đưa ra định nghĩa, các nguyên tắc quản lý và phát triển, giao Chính phủ quy định chi tiết nội dung này, đồng thời nêu rõ nguyên tắc quản lý và phát triển AI.

Nhất trí với sự cần thiết quy định đối với các hệ thống AI được lồng ghép trong Dự thảo, song các chuyên gia cho rằng, cần nghiên cứu toàn diện (bao gồm cả những vấn đề như sở hữu, quyền tài sản và quyền nhân thân đối với dữ liệu, vấn đề bảo hộ quyền tác giả…) để xây dựng một Đạo luật riêng về AI của Việt Nam.

Thẩm tra dự thảo luật, Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Lê Quang Huy cho rằng, việc quy định như dự thảo Luật về cơ bản là hợp lý. Tuy nhiên, có ý kiến cho rằng, cần nghiên cứu toàn diện (bao gồm cả những vấn đề như sở hữu, quyền tài sản và quyền nhân thân đối với dữ liệu, vấn đề bảo hộ quyền tác giả…) để xây dựng một Đạo luật riêng về AI của Việt Nam.

Ủy ban Khoa học, Công nghệ và Môi trường thấy rằng, tại thời điểm này Việt Nam cần phải có cơ sở pháp lý để điều chỉnh về trí tuệ nhân tạo để phát triển thế mạnh, lợi thế của AI đồng thời hạn chế tác động bất lợi trong nghiên cứu, ứng dụng, phát triển công nghệ AI. Do đó, cơ bản tán thành sự cần thiết quy định đối với các hệ thống AI được lồng ghép trong dự thảo Luật. Tuy nhiên, đề nghị nghiên cứu bổ sung các quy định hạn chế rủi ro, ảnh hưởng của công nghệ AI đối với đời sống kinh tế, xã hội như nguyên tắc đạo đức; nghiên cứu, phát triển AI do Việt Nam sáng tạo;  cho phép các doanh nghiệp có dự án nghiên cứu về trí tuệ nhân tạo được sử dụng nguồn dữ liệu từ các cơ quan nhà nước; quy định mức độ ứng dụng trí tuệ nhân tạo trong các cơ quan nhà nước từ các giải pháp do doanh nghiệp trong nước làm chủ nhằm khuyến khích sử dụng và tạo thị trường.

Góp ý nội dung này, Tổng Thư ký Quốc hội Bùi Văn Cường cho rằng, những quy định tại dự thảo luật chưa đủ mạnh mẽ để đảm bảo cho việc phát triển ứng dụng AI diễn ra một cách có trách nhiệm, có đạo đức. Do đó, đề nghị bổ sung các quy định nhằm hạn chế rủi ro của AI.

Cụ thể, ông đề nghị phải xem xét chi tiết hóa các nguyên tắc đạo đức như: công bằng, minh bạch, trách nhiệm, an toàn và bảo mật trong phát triển ứng dụng công nghệ AI. Cùng với đó, cần xây dựng cơ chế giám sát tuân thủ các nguyên tắc đạo đức, trí tuệ nhân tạo, ví dụ như là thành lập Hội đồng đạo đức, AI độc lập bao gồm chuyên gia nhiều lĩnh vực.

Đồng thời phải cân nhắc kỹ quy định về dán nhãn sản phẩm công nghệ số tạo ra bởi AI. “Thế nào là sản phẩm công nghệ số tạo ra bởi hệ thống AI? Đề nghị làm rõ thêm nội hàm, không quy định chung chung dẫn đến tình trạng khó khăn trong thi hành” – ông Cường đề nghị.