Luật Pháp Hoa Kỳ đối với AI: Khó khăn nhưng vẫn có hy vọng
Việc quản lý AI tại Hoa Kỳ đang gặp nhiều thách thức, nhưng vẫn có một số dấu hiệu tích cực. Dù các nhà hoạch định chính sách đã có những tiến triển trong vài tháng qua, họ cũng đối mặt với không ít khó khăn trong việc xây dựng quy định về công nghệ này.
Hồi tháng 3, Tennessee đã trở thành tiểu bang đầu tiên bảo vệ nghệ sĩ lồng tiếng khỏi việc sao chép trái phép bằng AI. Mùa hè này, Colorado áp dụng các quy định theo từng cấp độ dựa trên mức độ rủi ro của AI. Tháng 9 vừa qua, Thống đốc California, Gavin Newsom, đã ký nhiều dự luật liên quan đến an toàn AI, yêu cầu các công ty công khai thông tin về quá trình đào tạo AI của họ.
Tuy nhiên, Hoa Kỳ vẫn chưa có chính sách AI đồng bộ ở cấp liên bang tương tự như Đạo luật AI của EU. Ở cấp tiểu bang, vẫn gặp nhiều rào cản lớn. Chẳng hạn, sau một cuộc tranh luận kéo dài với các nhóm lợi ích, Thống đốc Newsom đã phủ quyết dự luật SB 1047, một quy định yêu cầu các công ty phát triển AI phải đảm bảo an toàn và minh bạch. Một dự luật khác liên quan đến AI deepfake trên mạng xã hội cũng đã bị hoãn lại cho đến khi có kết quả từ một vụ kiện.
Dù vậy, theo Jessica Newman, đồng giám đốc Trung tâm Chính sách AI tại UC Berkeley, vẫn có lý do để lạc quan. Tại hội thảo về quản trị AI tại TechCrunch Disrupt 2024, Newman cho biết nhiều quy định liên bang có thể không nhắm vào AI trực tiếp, nhưng vẫn có thể áp dụng cho lĩnh vực này, như các luật chống phân biệt đối xử và bảo vệ người tiêu dùng.
Newman cũng chỉ ra rằng Ủy ban Thương mại Liên bang (FTC) đã yêu cầu các công ty ngừng thu thập dữ liệu một cách lén lút và đang điều tra xem việc mua bán các công ty khởi nghiệp AI có vi phạm quy định chống độc quyền hay không. Ngoài ra, Ủy ban Truyền thông Liên bang (FCC) đã xác định rằng các cuộc gọi tự động sử dụng giọng nói AI là bất hợp pháp và yêu cầu công khai nguồn gốc của nội dung AI trong quảng cáo chính trị.
Tổng thống Joe Biden cũng đã nỗ lực đưa ra các quy tắc về AI qua Sắc lệnh hành pháp, khuyến khích các công ty báo cáo tự nguyện và đánh giá tiêu chuẩn. Kết quả của sắc lệnh này là việc thành lập Viện An toàn AI Hoa Kỳ (AISI), nơi nghiên cứu các rủi ro trong hệ thống AI cùng với các phòng thí nghiệm hàng đầu như OpenAI và Anthropic. Tuy nhiên, AISI có thể bị giải thể dễ dàng nếu sắc lệnh hành pháp của Biden bị hủy bỏ. Vào tháng 10, một nhóm gồm hơn 60 tổ chức đã kêu gọi Quốc hội hợp pháp hóa AISI trước khi năm kết thúc.
Giám đốc AISI, Elizabeth Kelly, khẳng định rằng người Mỹ đều có mối quan tâm chung là giảm thiểu các rủi ro tiềm tàng của công nghệ. Tuy nhiên, sự thất bại của dự luật SB 1047, vốn được coi là nhẹ nhàng và đã gây ra tranh cãi, khiến nhiều người cảm thấy không mấy khích lệ.
Thượng nghị sĩ Scott Wiener, tác giả của SB 1047, tin rằng quy định rộng rãi về AI sẽ sớm được thông qua và rằng dự luật này đã tạo cơ sở cho các nỗ lực trong tương lai. Ông hy vọng rằng sẽ có một quy định có thể thu hút được sự đồng thuận giữa các bên liên quan về các rủi ro của AI.
Một tuần trước, công ty Anthropic cũng đã cảnh báo về những rủi ro nghiêm trọng của AI nếu quy định không được thực hiện trong vòng 18 tháng tới. Các nhà phê bình đã lên tiếng chỉ trích các nhà lập pháp như Wiener, cho rằng họ thiếu hiểu biết về những điều cần được quản lý.
Tuy nhiên, Newman cho rằng áp lực từ việc quy định các luật lệ về AI của từng tiểu bang sẽ cuối cùng dẫn đến một giải pháp mạnh mẽ hơn ở cấp liên bang. Trong năm nay, đã có gần 700 văn bản luật liên quan đến AI được đưa ra trên toàn quốc, cho thấy một nhu cầu ngày càng tăng để thống nhất quy định.
Bà kết luận: “Các công ty sẽ không muốn có một khung quản lý chắp vá, với từng tiểu bang có quy định khác nhau. Sẽ có áp lực ngày càng tăng hướng tới một giải pháp rõ ràng hơn ở cấp liên bang để giảm thiểu sự không chắc chắn đó”.