OpenAI và Meta chưa đáp ứng tiêu chuẩn của Đạo luật AI
Đạo luật AI của châu Âu đã chính thức hiệu lực vào tháng 8, theo một báo cáo kết quả thử nghiệm, các mô hình AI của OpenAI, Meta và Anthropic, đang không tuân thủ đầy đủ các quy tắc AI của Châu Âu…
Đạo luật AI là gì?
Đạo luật AI (AI Act) là một phần của luật pháp EU quản lý AI được Ủy ban châu Âu đề xuất lần đầu tiên vào năm 2020 nhằm giải quyết những tác động tiêu cực của AI.
Đạo luật đặt ra một khuôn khổ quản lý toàn diện và hài hòa cho AI trên toàn EU, áp dụng cách tiếp cận dựa trên rủi ro để quản lý công nghệ.
Luật sẽ tác động đến nhiều doanh nghiệp, đặc biệt là doanh nghiệp phát triển hệ thống AI; nhưng cũng có thể tác động đến doanh nghiệp không phải công ty công nghệ nhưng triển khai hoặc chỉ sử dụng AI trong một số trường hợp nhất định.
EU tiên phong trong việc kiểm soát nghiêm ngặt AI. Ảnh: Nature
Luật áp dụng cách tiếp cận dựa trên rủi ro để quản lý AI, nghĩa là các ứng dụng khác nhau của công nghệ sẽ được quản lý khác nhau tùy thuộc vào mức độ rủi ro mà AI gây ra cho xã hội.
Ví dụ, nhà cung cấp AI có rủi ro cao phải tiến hành đánh giá rủi ro và đảm bảo sản phẩm tuân thủ luật pháp EU trước khi ra mắt công chúng. Các hình ảnh, văn bản hay video do AI sản sinh sẽ phải được ghi rõ là sản phẩm của AI...
Mô hình AI của OpenAI, Meta và Anthropic
Một công ty khởi nghiệp Thụy Sĩ là LatticeFlow cùng các đối tác, dưới sự hỗ trợ của các quan chức Liên minh Châu Âu đã phát triển công cụ LLM Checker để thử đo lường mức độ đáp ứng quy định của các mô hình AI được phát triển bởi các công ty công nghệ lớn như Meta và OpenAI trên.
Công cụ này chấm điểm cho các mô hình AI do Alibaba, Anthropic, OpenAI, Meta và Mistral AI phát triển đều nhận được điểm trung bình từ 0,75 trở lên.
Nghiên cứu phát hiện ra rằng một số mô hình AI chủ yếu không đạt yêu cầu về phân biệt đối xử và an ninh mạng. Chẳng hạn GPT-4 Turbo của OpenAI và Cloud của Alibaba đều đưa ra kết quả có tính phân biệt giới tính, chủng tộc.
Song công cụ LLM Checker đã cung cấp những đánh giá cần thiết để cảnh báo các công ty về các nguy cơ không tuân thủ luật pháp của các mô hình. LatticeFlow cho biết LLM Checker sẽ được cung cấp miễn phí rộng rãi cho các nhà phát triển để tự kiểm tra mức độ tuân thủ của mô hình.
Petar Tsankov, Giám đốc điều hành và đồng sáng lập của công ty, nói với Reuters rằng kết quả thử nghiệm nhìn chung là tích cực và cung cấp cho các công ty một lộ trình để họ tinh chỉnh các mô hình của mình phù hợp với Đạo luật AI.
Một số công ty công nghệ như Meta và Apple vẫn chưa triển khai các mô hình AI tại Châu Âu do chưa có bộ đánh giá quy tắc cụ thể theo Đạo luật AI.
"EU vẫn đang tìm ra tất cả các tiêu chuẩn tuân thủ, nhưng chúng ta có thể thấy một số lỗ hổng trong các mô hình. Với công cụ này, chúng tôi tin rằng các nhà cung cấp mô hình có thể được chuẩn bị tốt để đáp ứng các yêu cầu quy định", Giám đốc điều hành của LatticeFlow nói.
Một phát ngôn viên của Ủy ban Châu Âu nói với Euronews Next rằng Ủy ban hoan nghênh nghiên cứu này và khen ngợi nền tảng đánh giá mô hình AI "như một bước đầu tiên trong việc chuyển đổi Đạo luật AI của EU thành các yêu cầu kỹ thuật, giúp các nhà cung cấp mô hình AI triển khai Đạo luật AI".
Trong khi đó, Tiến sĩ Ilia Kolochenko, Trợ lý Giáo sư về An ninh mạng tại Đại học Công nghệ Capitol, cho rằng báo cáo tóm tắt rất nhiều vấn đề về quyền riêng tư, an toàn và độ tin cậy với các mô hình GenAI lớn nhất, vốn đã được báo cáo ngày càng nhiều kể từ cuối năm 2022, thực tế, báo cáo chỉ là phần nổi của tảng băng.
"Một cuộc kiểm toán toàn diện về các mô hình LLM, có toàn quyền truy cập vào dữ liệu đào tạo, thuật toán và lan can của LLM, có thể sẽ phơi bày hàng chục vi phạm khác, không chỉ Đạo luật AI của EU mà còn Quy định bảo vệ dữ liệu của EU (GDPR)”. Chưa kể, thiệt hại không thể khắc phục đối với môi trường cần thiết để đào tạo hoặc tinh chỉnh các LLM. "Tương lai của GenAI có vẻ nghiệt ngã, nói một cách nhẹ nhàng", ông đánh giá.
Một sự kiện triển lãm AI. Ảnh: AP
Hình phạt của đạo luật AI
Đạo luật AI của EU chia công nghệ thành các loại rủi ro, từ không thể chấp nhận - nghĩa là công nghệ sẽ bị cấm đến mức độ rủi ro cao, trung bình và thấp.
Các mô hình AI sẽ được đánh giá trên hàng chục danh mục đánh giá như an ninh mạng, phúc lợi môi trường, quyền riêng tư và quản trị dữ liệu để xác định mức độ tuân thủ của các mô hình với thang điểm từ 0 đến 1.
Các công ty vi phạm đạo luật AI của EU có thể bị phạt từ 35 triệu euro hoặc 7% doanh thu hằng năm trên toàn cầu của công ty. Điều này đã khiến các công ty dè dặt phát hành các mô hình của mình tại châu Âu do chưa có bất kỳ hướng dẫn kỹ thuật chi tiết nào. Bởi vậy, EU đang triệu tập các chuyên gia để soạn thảo một bộ quy tắc thực hành điều chỉnh công nghệ và sẽ ban hành khoảng đầu năm 2025.