a16z VC Martin Casado giải thích lý do tại sao rất nhiều quy định về AI lại sai lầm
Vấn đề của các nhà quản lý AI cho đến nay là các nhà lập pháp đang tập trung vào một số trải nghiệm AI trong tương lai, thay vì thực sự hiểu những rủi ro mới mà AI thực sự gây ra.
Martin Casado, một đối tác tại Andreessen Horowitz (a16z), đã chỉ trích cách thức mà các nhà lập pháp đang tiếp cận việc điều chỉnh công nghệ AI trong một buổi diễn thuyết tại TechCrunch Disrupt 2024. Ông cho rằng vấn đề chính của hầu hết các nỗ lực điều chỉnh AI là họ đang tập trung vào những thứ mà có thể xảy ra trong tương, thay vì hiểu rõ những rủi ro mà AI thực sự mang lại.
Casado, người có kinh nghiệm sâu rộng trong công nghệ và đã đầu tư vào nhiều startup AI như World Labs, Cursor, Ideogram và Braintrust nhấn mạnh rằng công nghệ và quy định là hai lĩnh vực đã có cuộc thảo luận liên tục trong nhiều thập kỷ. Tuy nhiên, trong cuộc thảo luận hiện tại về AI, ông cảm thấy rằng các chính sách đang được đề xuất thiếu kiến thức và không dựa trên các bài học từ quá khứ. Ông đặt câu hỏi về việc liệu ai đã từng thấy các định nghĩa chính xác cho AI trong những chính sách đó hay chưa, thậm chí còn khẳng định rằng chúng ta không thể định nghĩa nó một cách rõ ràng.
Casado là một trong những người vui mừng khi Thống đốc California Gavin Newsom đã phủ quyết dự luật điều chỉnh AI, SB 1047, mà theo đó yêu cầu có một "công tắc tắt" đối với các mô hình AI lớn, nhằm ngăn chặn những mối đe dọa không rõ. Ông cho rằng dự luật này được viết rất kém và có thể làm rối loạn và cản trở cảnh phát triển AI sôi động ở California.
Ông bày tỏ lo ngại rằng nếu các chính trị gia tiếp tục chiều theo nỗi sợ hãi của công chúng về AI, thì nhiều dự luật kém chất lượng như thế này có thể xuất hiện trong tương lai. Casado tin rằng để thực sự hiểu biết và điều chỉnh AI, cần phải xác định rõ những rủi ro cụ thể mà AI mang lại, so với các công nghệ hiện có như Google hay Internet.
Ông nhấn mạnh rằng nhiều đề xuất quy định về AI không được xuất phát hay hỗ trợ từ những người hiểu biết về công nghệ này, từ các học giả cho đến các công ty đang phát triển sản phẩm AI. Casado cũng lập luận rằng hiện có một hệ thống quy định vững chắc đã được hình thành trong suốt 30 năm qua và có khả năng xây dựng các chính sách mới cho AI và các công nghệ khác.
Tuy nhiên, ông cũng nhấn mạnh rằng không nên điều chỉnh AI chỉ vì các vấn đề của công nghệ khác. Ông khẳng định rằng nếu các vấn đề đã xảy ra trong lĩnh vực mạng xã hội, thì không thể khắc phục nó bằng cách đưa mọi thứ vào AI. Ông nói: “Nếu chúng ta đã sai trong mạng xã hội, thì không thể sửa chữa điều đó bằng cách áp lên AI”.
Do đó, Casado kêu gọi một cái nhìn thấu đáo và thực tế hơn về AI, với các quy định nên dựa trên những hiểu biết sâu sắc về công nghệ này, thay vì dựa vào nỗi sợ hãi hay chứng kiến những sai lầm trong quá khứ.