Làm rõ khung pháp lý cho AI, tài sản số và sandbox
Tại Hội thảo góp ý hoàn thiện dự thảo Luật Công nghiệp công nghệ số, nhiều ý kiến nhấn mạnh sự cần thiết phải bổ sung nguyên tắc phát triển AI, làm rõ phân loại rủi ro, xây dựng không gian thử nghiệm linh hoạt và hoàn thiện các quy định hỗ trợ phát triển tài sản số, nhằm đảm bảo Luật CNCNS trở thành hành lang pháp lý thúc đẩy đổi mới sáng tạo trong thời đại số.
Sáng 26/4, tại trụ sở các cơ quan của Quốc hội, Thường trực Ủy ban Khoa học, Công nghệ và Môi trường tổ chức Hội thảo góp ý hoàn thiện dự thảo Luật Công nghiệp công nghệ số. Phó Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Phương Tuấn chủ trì Hội thảo. Tham dự Hội thảo có Thứ trưởng Bộ Khoa học và Công nghệ; đại diện các Bộ: Công an, Tài chính, Tư pháp, Giáo dục và Đào tạo; các doanh nghiệp trong lĩnh vực công nghiệp công nghệ số, các chuyên gia, nhà khoa học.
Tại Hội thảo, các đại biểu đã tập trung đóng góp Chương IV Trí tuệ nhân tạo, Chương V Tài sản số và Chương VI Cơ chế thử nghiệm có kiểm soát sản phẩm, dịch vụ ứng dụng công nghệ số được đưa ra trong dự thảo Luật.
Quang cảnh hội thảo.
Trong góp ý gửi tới ban soạn thảo Dự thảo Luật Công nghiệp công nghệ số (CNCNS), TS. Chu Thị Hoa, Phó Viện trưởng Viện Chiến lược và Khoa học Pháp lý (Bộ Tư pháp), đã đưa ra nhiều đề xuất quan trọng nhằm hoàn thiện các quy định liên quan đến trí tuệ nhân tạo (AI) và cơ chế thử nghiệm có kiểm soát (sandbox).
Đề xuất bổ sung các nguyên tắc phát triển trí tuệ nhân tạo
Theo TS. Chu Thị Hoa, tại Điều 44 của dự thảo Luật, các nguyên tắc về phát triển, cung cấp và sử dụng trí tuệ nhân tạo cần được làm rõ hơn, đặc biệt là nguyên tắc minh bạch về thông tin và dữ liệu cá nhân. Bà cũng kiến nghị bổ sung các nguyên tắc mới như “linh hoạt, thích ứng” và “đa dạng, bao trùm” nhằm đáp ứng tốc độ phát triển nhanh và phạm vi ứng dụng rộng của AI trong thực tiễn.
Bên cạnh đó, để phù hợp với định hướng phát triển bền vững, bà đề xuất thêm nguyên tắc “bảo đảm phát triển bền vững” vào nội dung luật. Điều này nhằm bảo vệ môi trường, tiết kiệm năng lượng và thúc đẩy kinh tế tuần hoàn – mô hình đang được nhiều quốc gia theo đuổi.
Về Điều 45 liên quan đến chiến lược phát triển AI, bà Hoa cho rằng các nguyên tắc đã nêu ở Điều 44 không nên lặp lại, mà cần đảm bảo áp dụng chung. Đồng thời, phần quy định nội dung chiến lược cần sửa thành “nội dung cơ bản” để tránh bó buộc và tạo điều kiện cập nhật khi có thay đổi trong bối cảnh kinh tế - xã hội.
TS. Chu Thị Hoa, Phó Viện trưởng Viện Chiến lược và Khoa học Pháp lý (Bộ Tư pháp) đóng góp ý kiến cho dự thảo Luật CNCNS.
Bà cũng nhấn mạnh rằng bên cạnh các hành vi bị cấm, luật cần bổ sung những hành vi bị hạn chế hoặc cần điều kiện đặc biệt, nhất là đối với các hệ thống AI có rủi ro cao. Điều này nhằm đảm bảo tính phù hợp với Hiến pháp 2013 và tăng cường cơ sở pháp lý trong quản lý rủi ro công nghệ.
Về phân loại hệ thống AI (Điều 46), ông Nguyễn Đức Lam, đại diện Viện Nghiên cứu Chính sách và Phát triển Truyền thông (IPS), cho rằng dự thảo Luật hiện chưa phân biệt nghĩa vụ giữa các loại hệ thống có rủi ro khác nhau, dễ gây cản trở cho môi trường đổi mới sáng tạo. Theo IPS, Việt Nam nên học hỏi cách tiếp cận phân loại theo rủi ro như trong Đạo luật AI của EU, nhưng điều chỉnh linh hoạt hơn để phù hợp với điều kiện thực tế.
Ngoài ra, tiêu chí xác định hệ thống AI có "tác động lớn" cần rõ ràng, có cơ chế tham vấn chuyên gia, tránh để việc đánh giá rơi vào tùy tiện.
Các đại biểu tham dự hội thảo.
Hoàn thiện khuôn khổ pháp lý cho cơ chế thử nghiệm có kiểm soát
Các chuyên gian cũng đánh giá cao việc dự thảo Luật CNCNS đề cập đến cơ chế thử nghiệm có kiểm soát. Theo TS. Chu Thị Hoa, bản chất của sandbox là tạo ra một khuôn khổ pháp lý linh hoạt, giúp doanh nghiệp, nhà nước và người tiêu dùng hợp tác win-win, vừa thử nghiệm đổi mới sáng tạo vừa đảm bảo an toàn và minh bạch.
Vì vậy, dự thảo cần làm rõ thêm các nội dung về tiêu chí lựa chọn, quy trình đăng ký, điều kiện kết thúc thử nghiệm, và đặc biệt là kết quả thử nghiệm phải được sử dụng làm cơ sở cho việc xây dựng chính sách, quy chuẩn chính thức.
Ông Nguyễn Đức Lam, Viện IPS đề xuất phân loại AI dựa trên mức độ rủi ro thay vì áp dụng đồng loạt nghĩa vụ.
Viện IPS đề xuất chia thành ba loại: thử nghiệm công nghệ; thử nghiệm công nghệ + pháp lý; và thử nghiệm pháp lý.
IPS cũng lưu ý rằng điều kiện "tính khả thi" cho thử nghiệm là không phù hợp vì sản phẩm đổi mới sáng tạo luôn tiềm ẩn rủi ro. Các điều kiện phê duyệt cần phân loại theo đối tượng và mức độ rủi ro, trao quyền linh hoạt cho cơ quan quản lý.
Đáng chú ý, Viện IPS cho rằng không nên quy định thẩm quyền phê duyệt thử nghiệm cho UBND cấp tỉnh. Bởi lẽ, điều này có thể gây ra sự thiếu thống nhất trên toàn quốc, đặc biệt nguy hiểm trong các lĩnh vực nhạy cảm như tài chính. IPS đề xuất việc phê duyệt thử nghiệm nên do các bộ chuyên ngành đảm nhiệm, còn địa phương chỉ hỗ trợ, tài trợ và tham vấn.
Một vấn đề được nhiều chuyên gia quan tâm trong dự thảo Luật là về “không gian thử nghiệm có kiểm soát”. Có ý kiến góp ý nên xây dựng điều luật riêng về “không gian thử nghiệm có kiểm soát”, bao gồm không gian vật lý (trong thực tế) và không gian trên môi trường số. Các hoạt động thử nghiệm trong không gian mạng phải đảm bảo giới hạn địa lý, có biện pháp kỹ thuật ngăn truy cập không hợp lệ và thiết lập cơ chế hợp tác quốc tế khi cần thiết.
Liên quan đến quyền và trách nhiệm trong thử nghiệm, Viện IPS đề xuất cơ quan soạn thảo dự án Luật có thể bổ sung các quy định về trách nhiệm của các Bộ, cơ quan ngang bộ, Ủy ban nhân dân cấp tỉnh (nếu có). Ngoài ra, cần công khai thông tin về quy trình, cơ chế thử nghiệm; tài liệu hướng dẫn; đầu mối liên lạc của Bộ, cơ quan ngang Bộ, UBND cấp tỉnh trên Cổng thông tin điện tử để doanh nghiệp dễ dàng tra cứu, tìm hiểu, liên hệ. Trách nhiệm của cơ quan Nhà nước là phải giải trình trước công chúng khi doanh nghiệp tham gia cơ chế thử nghiệm gây ra thiệt hại đáng kể cho người tiêu dùng hoặc thất bại; phát hành báo cáo minh bạch nêu chi tiết về hiệu suất và kết quả của các thử nghiệm.
Còn về phía doanh nghiệp có thể khiếu nại, khiếu kiện cơ quan quản lý nếu doanh nghiệp tin rằng, cơ quan đó đã không thực hiện tốt các nhiệm vụ của mình. Chẳng hạn, nếu cơ quan hành động tùy tiện, bỏ qua các quy tắc; không hướng dẫn đầy đủ, đúng đắn làm doanh nghiệp bị tổn hại; trì hoãn xem xét, phê duyệt làm doanh nghiệp bị thiệt hại; phân biệt đối xử trong quá trình phê duyệt, giám sát.
ThS. Nguyễn Long, Phó Chủ tịch kiêm Tổng thư ký Hội Tin học Việt Nam đóng góp ý kiến tại hội thảo.
Bên cạnh đó, ThS. Nguyễn Long, Phó Chủ tịch kiêm Tổng thư ký Hội Tin học Việt Nam cũng đề xuất cần bổ sung và làm rõ hơn các khái niệm về công nghệ số liên quan đến tài sản số, bởi hiện tại các quy định trong dự thảo luật còn sơ lược. Đồng thời, ông nhấn mạnh việc cần quy định rõ vai trò của công nghệ trong việc tạo ra tài sản số cũng như sự tham gia của các doanh nghiệp và lập trình viên trong lĩnh vực này.
Ngoài ra, ông cũng lưu ý rằng phát triển tài sản số đòi hỏi nguồn vốn đầu tư rất lớn, vì vậy, dự thảo luật cần thiết phải bổ sung thêm những quy định cụ thể về cơ chế đầu tư và hỗ trợ tài chính trong chương về Tài sản số.
Còn TS. Chu Thị Hoa đề nghị đổi tên Điều 52 thành “Trách nhiệm của tổ chức, doanh nghiệp được cấp phép thử nghiệm” để phù hợp với nội dung và gộp các quy định liên quan. Đồng thời, cần bổ sung điều khoản về các hành vi bị cấm trong thử nghiệm có kiểm soát, ví dụ như: lạm dụng dữ liệu người dùng, thương mại hóa ngoài phạm vi thử nghiệm, công bố thông tin sai lệch hoặc tiết lộ tài liệu thuộc danh mục bí mật nhà nước.
Các góp ý khác về minh bạch, đạo đức AI và cơ chế khuyến khích
Hội thảo còn nghe các góp ý làm rõ khung pháp lý cho phát triển AI, thử nghiệm công nghệ mới, phát triển nhân lực và bảo vệ quyền lợi doanh nghiệp
Ông Tô Hồng Nam, Phó Cục trưởng Cục Khoa học, Công nghệ và Thông tin (Bộ Giáo dục và Đào tạo) đề xuất khoanh vùng hẹp hơn định nghĩa về nhân lực công nghệ số. Đồng thời có cơ để thu hút sinh viên theo học các ngành công nghệ số. Cơ chế hỗ trợ cho người dạy, hỗ trợ nhà trường về cơ sở vật chất như đầu tư các phòng Lab. Ngoài ra, trách nhiệm phát triển nguồn nhân lực nên được chia sẻ giữa nhiều bộ, ngành.
Ông Tô Hồng Nam, Phó Cục trưởng Cục Khoa học, Công nghệ và Thông tin (Bộ Giáo dục và Đào tạo) phát biểu tại hội thảo.
Đại diện VNPT và Bộ Công an đều nhấn mạnh cần quy định rõ hơn về kiểm soát sandbox, đạo đức AI và cơ chế tài chính khi phát triển sản phẩm AI. Đặc biệt, VNPT đề xuất giai đoạn này không bắt buộc dán nhãn AI đối với sản phẩm AI để để tránh làm giảm nhu cầu thị trường.
Ông Nguyễn Mạnh Quý (Viettel AI) cũng cho rằng chỉ nên yêu cầu dán nhãn đối với những nội dung rõ ràng như video, hình ảnh; với các sản phẩm AI khác nên chuyển trọng tâm sang quản lý rủi ro thay vì yêu cầu minh bạch toàn bộ thông tin.
Đại biểu Quốc hội Bế Trung Anh, nhấn mạnh Luật CNCNS nên định hướng khuyến khích đổi mới sáng tạo thay vì quá thiên về quản lý, và cần chuyển yêu cầu dán nhãn AI sang yêu cầu đảm bảo khả năng truy vết.
Đại biểu Quốc hội Hoàng Minh Hiếu đề nghị phân loại AI theo mức độ rủi ro để áp dụng cơ chế quản lý phù hợp và xem xét lại việc đặt cơ chế sandbox ở luật nào cho phù hợp với hệ thống pháp luật.
Phó Chủ nhiệm Nguyễn Phương Tuấn khẳng định các ý kiến tại hội thảo sẽ được nghiên cứu kỹ lưỡng, hoàn thiện trước khi trình Quốc hội tại kỳ họp thứ 9.
Phát biểu kết luận Hội thảo, Phó Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Phương Tuấn khẳng định tầm quan trọng của việc đóng góp vào các quy định về cơ chế thử nghiệm có kiểm soát sản phẩm, dịch vụ ứng dụng công nghệ số và AI được đưa ra trong dự thảo Luật CNCNS. Các ý kiến góp ý tại Hội thảo là cơ sở quan trọng để cơ quan soạn thảo, cơ quan thẩm tra hoàn thiện dự thảo Luật trước trước khi trình Quốc hội xem xét, thảo luận tại kỳ họp thứ 9 tới.