9 nguyên tắc nghiên cứu phát triển hệ thống AI có trách nhiệm tại Việt Nam
Bộ Khoa học và Công nghệ mới đây đã lần đầu tiên ban hành bộ nguyên tắc chung nhằm thúc đẩy nghiên cứu và phát triển các hệ thống trí tuệ nhân tạo (AI) an toàn, có trách nhiệm tại Việt Nam.
Theo đó, tại Quyết định 1290, Bộ Khoa học và Công nghệ đã đưa ra bộ nguyên tắc chung đầu tiên cho nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo (AI) có trách nhiệm, dành cho các cơ quan, tổ chức khoa học và công nghệ, doanh nghiệp cá nhân có hoạt động thiết kế, phát triển cung cấp các hệ thống AI.
Theo đó, 9 nguyên tắc nghiên cứu, phát triển hệ thống AI có trách nhiệm bao gồm:
Tinh thần hợp tác, thúc đẩy đổi mới sáng tạo. Nhà phát triển cần chú ý đến khả năng kết nối và tương tác của các hệ thống AI nhằm tăng cường lợi ích của hệ thống AI thông qua quá trình kết nối các hệ thống và tăng cường sự phối hợp để kiểm soát rủi ro. Muốn vậy các nhà phát triển cần hợp tác chia sẻ thông tin liên quan nhằm đảm bảo tính liên thông, tương tác của hệ thống. Ưu tiên phát triển các hệ thống AI phù hợp các quy chuẩn kỹ thuật, tiêu chuẩn quốc gia hoặc tiêu chuẩn quốc tế, bên cạnh đó chuẩn hóa của các định dạng dữ liệu và tính mở của các giao diện, giao thức trong đó có các giao diện lập trình ứng dụng (API). Việc chia sẻ và trao đổi các điều kiện về quyền sở hữu trí tuệ như bằng sáng chế cũng góp phần tăng cường tính liên kết và khả năng tương tác khi liên quan đến các tài sản trí tuệ.
Tính minh bạch: Nhà phát triển cần chú ý đến việc kiểm soát đầu vào/đầu ra của hệ thống AI và khả năng giải thích các phân tích có liên quan dựa trên các đặc điểm của công nghệ được áp dụng và cách sử dụng chúng.
Khả năng kiểm soát hệ thống: Một trong những phương pháp đánh giá rủi ro là tiến hành thử nghiệm trong một không gian riêng như trong phòng thí nghiệm hoặc môi trường thử nghiệm nơi đã có các biện pháp đảm bảo an ninh, an toàn trước khi đưa vào áp dụng thực tế. Nhà phát triển chú ý đến giám sát hệ thống (có công cụ đánh giá/giám sát hoặc hiệu chỉnh/cập nhật dựa trên các phản hồi của người dùng) và các biện pháp ứng phó (như ngắt hệ thống, ngắt mạng...).
Đánh giá xác định và giảm thiểu các rủi ro liên quan đến sự an toàn của hệ thống AI.
Các nhà phát triển cần chú ý đến tính bảo mật, trong đó đặc biệt lưu ý đến độ tin cậy và khả năng chống chịu các dạng tấn công hoặc tai nạn vật lý của hệ thống trí tuệ nhân tạo. Đồng thời cần đảm bảo tính bảo mật; sự toàn vẹn và tính khả dụng của các thông tin cần thiết liên quan đến sự an toàn thông tin của hệ thống.
Đảm bảo hệ thống trí tuệ nhân tạo không vi phạm quyền riêng tư của người dùng hoặc bên thứ ba. Quyền riêng tư được đề cập trong nguyên tắc này bao gồm không gian (sự yên bình trong cuộc sống cá nhân), thông tin (dữ liệu cá nhân) và sự bí mật của việc thông tin liên lạc. Nhà phát triển có thể thực hiện các biện pháp phù hợp với đặc điểm của công nghệ được áp dụng trong suốt quá trình phát triển hệ thống (từ khi thiết kế) để tránh xâm phạm quyền riêng tư khi đưa vào sử dụng.
Khi phát triển các hệ thống AI có liên quan tới con người, các nhà phát triển phải đặc biệt quan tâm đến việc tôn trọng quyền và phẩm giá con người, thực hiện biện pháp phòng ngừa để đảm bảo không vi phạm giá trị con người, đạo đức xã hội.
Hỗ trợ người dùng và tạo điều kiện cho người dùng có cơ hội lựa chọn như tạo ra các giao diện sẵn sàng cung cấp thông tin kịp thời, biện pháp giúp người già, người khuyết tật dễ sử dụng.
Cuối cùng, nhà phát triển cần thực hiện trách nhiệm giải trình đối với các hệ thống AI đã phát triển để đảm bảo niềm tin của người dùng.
Bộ Khoa học và Công nghệ cho biết việc xây dựng các tiêu chuẩn nhằm hướng dẫn, định hướng qua đó gia tăng lợi ích từ các hệ thống AI, kiểm soát giảm thiểu các rủi ro trong quá trình phát triển, sử dụng trí tuệ nhân tạo, cân đối các yếu tố kinh tế, đạo đức và pháp lý.
Theo Tạp chí Điện tử Sở hữu trí tuệ & Sáng tạo