Xây dựng hệ thống chính sách toàn diện để phát triển trí tuệ nhân tạo có trách nhiệm
Các chuyên gia đề xuất cần xây dựng và ban hành bộ nguyên tắc chung về trí tuệ nhân tạo có trách nhiệm tại Việt Nam, đồng thời hướng dẫn cụ thể trong một số lĩnh vực nhạy cảm như giáo dục - đào tạo và y tế.
Hội thảo "Thực trạng phát triển và thách thức cơ bản dưới góc độ xã hội, đạo đức và pháp lý của trí tuệ nhân tạo ở Việt Nam" - Ảnh: VGP/NN
Trên cơ sở hỗ trợ của Chương trình Đối tác Đổi mới sáng tạo Australia - Việt Nam (Aus4Innovation), Trường Đại học Luật – ĐH Quốc gia Hà Nội đã tổ chức hội thảo "Thực trạng phát triển và thách thức cơ bản dưới góc độ xã hội, đạo đức và pháp lý của trí tuệ nhân tạo ở Việt Nam".
Xã hội đang phấn khích về trí tuệ nhân tạo
Tại hội thảo, TS. Hoàng Đỗ Thanh Tùng (Trưởng phòng Nghiên cứu hệ thống và quản lý, Viện Công nghệ thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam) đã lược thuật sự phát triển của trí tuệ nhân tạo qua các thời kỳ và nhấn mạnh rằng xã hội có thể đang phấn khích về trí tuệ nhân tạo. Tuy nhiên, để vận hành được hiệu quả, trí tuệ nhân tạo cần hệ thống giá trị để có thể tự đưa ra quyết định trong nhiều tình huống.
Trên cơ sở đánh giá tổng quan chính sách, pháp luật hiện hành của Việt Nam về chủ đề này, PGS.TS. Nguyễn Thị Quế Anh (Trường Đại học Luật – ĐH Quốc gia Hà Nội) cho rằng cần hướng tới cân bằng giữa thúc đẩy phát triển và kiểm soát rủi ro trong phát triển trí tuệ nhân tạo dựa trên 3 Trụ cột: Hợp pháp – Đạo đức – Bền vững công nghệ; Kết hợp điều chỉnh giữa "luật cứng" (như các đạo luật) và "luật mềm" (như các Bộ quy tắc/ hướng dẫn thực hành).
Theo PGS.TS. Nguyễn Thị Quế Anh, trí tuệ nhân tạo đang phát triển nhanh chóng và tác động sâu rộng đến mọi mặt đời sống xã hội. Điều này dẫn tới xu hướng toàn cầu về thúc đẩy trí tuệ nhân tạo có trách nhiệm thông qua các công cụ điều chỉnh, đặc biệt là công cụ đạo đức.
Nghiên cứu về sự phát triển và ứng dụng trí tuệ nhân tạo trong các lĩnh vực giáo dục-đào tạo, y tế và nông nghiệp tại Việt Nam, cũng như những thách thức về xã hội, đạo đức, pháp lý, các nhà nghiên cứu đã đề xuất cần xây dựng và ban hành bộ nguyên tắc chung về trí tuệ nhân tạo có trách nhiệm tại Việt Nam, đồng thời hướng dẫn cụ thể trong một số lĩnh vực nhạy cảm như giáo dục-đào tạo và y tế.
Cần chính sách pháp luật toàn diện để phát triển trí tuệ nhân tạo
Ý kiến tại hội thảo cho rằng các giá trị cốt lõi của trí tuệ nhân tạo có trách nhiệm gồm: Tôn trọng quyền tự chủ của con người; ngăn ngừa thiệt hại đối với con người và xã hội; không tạo ra hoặc làm trầm trọng thêm sự phân biệt đối xử; bảo đảm tính minh bạch và khả năng giải thích các quyết định của trí tuệ nhân tạo.
Các chuyên gia cũng nhất trí rằng sự phát triển nhanh chóng của trí tuệ nhân tạo đã và đang tác động to lớn đối với nền kinh tế-xã hội Việt Nam. Vì vậy, Việt Nam cần nhanh chóng xây dựng một cách hệ thống chính sách và pháp luật toàn diện nhằm thúc đẩy hiệu quả việc phát triển và ứng dụng trí tuệ nhân tạo có trách nhiệm, phù hợp với sự phát triển của công nghệ cũng như xu hướng quốc tế.
Trong đó, có thể tiếp tục đặt ưu tiên vào việc hoàn thiện Bộ nguyên tắc đạo đức thúc đẩy sự phát triển của trí tuệ nhân tạo có trách nhiệm để bảo đảm niềm tin của người dùng và xã hội vào các hệ thống trí tuệ nhân tạo.
Bộ nguyên tắc và các hướng dẫn về trí tuệ nhân tạo có trách nhiệm cần mang tính linh hoạt, thích ứng, thường xuyên được đánh giá, cập nhật, bổ sung theo sự phát triển nhanh chóng của trí tuệ nhân tạo trong các lĩnh vực khác nhau.