Thung lũng Silicon và cuộc chiến dập tắt làn sóng lo ngại về AI năm 2024
Trong những năm gần đây, AI ngày càng trở nên phổ biến, mang đến cả hy vọng lẫn nỗi sợ hãi về tương lai nhân loại. Một số nhà khoa học và chuyên gia công nghệ đã cảnh báo rằng AI, nếu phát triển vượt ngoài tầm kiểm soát, có thể dẫn đến những thảm họa nghiêm trọng như gây ra các quyết định hủy diệt, bị lợi dụng để đàn áp xã hội hoặc thậm chí gây ra sự sụp đổ của nền văn minh. Những cảnh báo này, từng được coi là viễn tưởng, giờ đây đã trở thành một chủ đề thảo luận công khai trên các phương tiện truyền thông lớn, từ MSNBC đến CNN hay thậm chí trang nhất của tờ The New York Times.
Năm 2023 là một năm đặc biệt trong cuộc tranh luận về an toàn AI. Elon Musk cùng hơn 1.000 nhà khoa học và chuyên gia công nghệ đã kêu gọi tạm dừng phát triển các hệ thống AI tiên tiến để thế giới có thời gian chuẩn bị cho những rủi ro tiềm tàng. Các nhà nghiên cứu từ các tập đoàn lớn như OpenAI và Google cũng đồng tình, ký một bức thư ngỏ nhấn mạnh rằng nguy cơ AI dẫn đến sự tuyệt chủng của loài người không chỉ dừng lại ở lý thuyết mà cần được xem xét nghiêm túc. Chính quyền của Tổng thống Joe Biden cũng tham gia vào cuộc đua kiểm soát AI với một sắc lệnh hành pháp nhằm tăng cường các biện pháp an toàn và bảo vệ người dân khỏi nguy cơ từ các hệ thống AI chưa được kiểm soát.
Tuy nhiên, những nỗ lực này không đủ sức ngăn chặn tốc độ phát triển chóng mặt của AI, và các công ty công nghệ vẫn tiếp tục thúc đẩy ranh giới của ngành. Sam Altman, CEO OpenAI, người từng bị sa thải bởi chính hội đồng quản trị của công ty vì bị cho là thiếu đáng tin cậy với một công nghệ quan trọng như trí tuệ nhân tạo, đã nhanh chóng lấy lại quyền kiểm soát. Song đồng thời, một số nhà nghiên cứu đã rời khỏi OpenAI, gióng lên hồi chuông cảnh báo về sự suy yếu trong văn hóa đặt yếu tố an toàn lên hàng đầu tại công ty này. Điều này không chỉ dừng lại ở OpenAI; trên toàn ngành, năm 2024 chứng kiến đầu tư vào AI bùng nổ mạnh mẽ hơn bao giờ hết, bất chấp các lo ngại về rủi ro.
SAN FRANCISCO, CA – Ngày 13 tháng 9: Doanh nhân Marc Andreessen phát biểu trên sân khấu trong sự kiện TechCrunch Disrupt SF 2016 tại Pier 48 vào ngày 13 tháng 9 năm 2016 tại San Francisco, California. (Ảnh của Steve Jennings/Getty Images cho TechCrunch).
Trong bối cảnh đó, một làn sóng lạc quan – và cả những lợi ích tài chính nổi lên từ những nhà đầu tư và doanh nhân công nghệ. Marc Andreessen, đồng sáng lập quỹ đầu tư nổi tiếng Andreessen Horowitz (a16z), là một trong những gương mặt tiêu biểu. Vào tháng 6/2023, ông xuất bản bài viết "Tại sao AI sẽ cứu thế giới", trong đó bác bỏ các lo ngại về AI và nhấn mạnh rằng công nghệ này là chìa khóa để đưa nhân loại đến một tương lai tươi sáng. Andreessen lập luận rằng để AI phát huy tối đa tiềm năng, các công ty cần được tự do phát triển nó mà không bị ràng buộc bởi các quy định pháp lý cản trở. Ông tin rằng cách tiếp cận này sẽ giúp Hoa Kỳ đánh bại Trung Quốc trong cuộc chạy đua công nghệ và đảm bảo rằng AI không rơi vào tay một nhóm nhỏ các công ty hay chính phủ quyền lực.
Tuy nhiên, quan điểm của Andreessen không phải không gây tranh cãi. Những người chỉ trích cho rằng ý tưởng tự do phát triển AI là vô trách nhiệm, đặc biệt trong bối cảnh thế giới đang đối mặt với cách biệt thu nhập gia tăng, bất ổn xã hội và nhiều vấn đề toàn cầu chưa được giải quyết. Ngoài ra, không thể phủ nhận rằng viễn cảnh lạc quan này cũng mang lại lợi ích tài chính không nhỏ cho những công ty mà quỹ a16z rót vốn. Điều này càng khiến những cáo buộc rằng Andreessen chỉ quan tâm đến lợi nhuận trở nên nặng nề.
Trong khi đó, sự thay đổi chính trị tại Hoa Kỳ cũng ảnh hưởng đáng kể đến cuộc tranh luận về AI. Tổng thống đắc cử Donald Trump tuyên bố sẽ bãi bỏ sắc lệnh AI của người tiền nhiệm Biden, cho rằng nó cản trở sự đổi mới và vị thế cạnh tranh của Mỹ. Thay vì tập trung vào các rủi ro "tận thế" của AI, chính quyền Trump và các đồng minh trong đảng Cộng hòa đã tập trung ưu tiên những vấn đề thực tế hơn như sử dụng AI trong quân đội, phát triển trung tâm dữ liệu, cạnh tranh với Trung Quốc, và hạn chế kiểm duyệt từ các công ty công nghệ. Đáng chú ý, những nhân vật quan trọng trong chiến dịch tranh cử của Trump, như Sriram Krishnan – một nhà đầu tư của Andreessen Horowitz, còn trực tiếp tham gia cố vấn về các chính sách liên quan đến trí tuệ nhân tạo.
Cùng thời điểm đó, phong trào cảnh báo về rủi ro thảm khốc từ AI dường như đã mất đi động lực. Một phần lý do nằm ở sự phổ biến của công nghệ AI trong đời sống hàng ngày, khiến nhiều người nhận ra rằng AI không thực sự đáng sợ như trí tưởng tượng trước đây. Những sai sót ngớ ngẩn, như Google Gemini gợi ý dùng keo dán ăn kèm pizza, đã khiến giới truyền thông và dư luận trở nên hài hước hơn là lo ngại. Tuy nhiên, sự phổ biến này cũng không thể xóa bỏ hoàn toàn những lo âu. Các sản phẩm AI hiện đại, như hệ thống thoại tự nhiên của OpenAI hay kính thông minh phân tích hình ảnh theo thời gian thực của Meta, đã dần đưa những khái niệm từ khoa học viễn tưởng trở thành hiện thực, nhắc nhở chúng ta về một tương lai mà rủi ro AI có thể vượt ngoài kiểm soát.
Nhìn chung, năm 2024 ghi dấu một thời điểm quan trọng trong lịch sử phát triển AI. Đó là cuộc đối đầu giữa hai tầm nhìn: một bên là viễn cảnh lạc quan rằng AI sẽ là cứu cánh giúp nhân loại phát triển rực rỡ; bên kia là những cảnh báo đầy lo âu về khả năng AI dẫn đến những thảm họa không thể tránh khỏi. Sẽ không dễ để biết ai đúng, nhưng một điều chắc chắn là tốc độ phát triển của AI đã không còn chờ đợi ý kiến của con người – nó đang tiến nhanh đến một tương lai mà chúng ta chỉ có thể quan sát và hy vọng rằng mình đã chuẩn bị đủ tốt.
Cuộc chiến diệt vong AI lớn nhất năm 2024: SB 1047
Thượng nghị sĩ Scott Wiener, một đảng viên Dân chủ đến từ California, bên phải, trong Hội nghị thượng đỉnh Bloomberg BNEF tại San Francisco, California, Hoa Kỳ, vào thứ Tư, ngày 31 tháng 1 năm 2024. Hội nghị thượng đỉnh cung cấp các ý tưởng, hiểu biết sâu sắc và kết nối để xây dựng các chiến lược thành công, tận dụng sự thay đổi công nghệ và định hình một tương lai sạch hơn, cạnh tranh hơn. Nhiếp ảnh gia: David Paul Morris/Bloomberg qua Getty Images
Trận chiến an toàn AI trong năm 2024 đã lên đến đỉnh điểm với dự luật SB 1047, một sáng kiến được hai nhà nghiên cứu AI danh tiếng, Geoffrey Hinton và Yoshua Bengio, ủng hộ. Dự luật này nhắm đến việc ngăn chặn các hệ thống AI tiên tiến gây ra những sự kiện mang tính diệt chủng hay các cuộc tấn công mạng có thể gây thiệt hại lớn hơn nhiều so với các sự cố ngừng hoạt động CrowdStrike trong năm 2024. SB 1047, sau khi được thông qua tại Cơ quan lập pháp California, đã được chuyển đến bàn làm việc của Thống đốc Gavin Newsom, người đã mô tả đây là một dự luật có "tác động to lớn". Mặc dù mục tiêu của dự luật rất rõ ràng, nhưng những lo ngại về các rủi ro AI thảm khốc mà Elon Musk, Sam Altman và các lãnh đạo khác đã cảnh báo vào năm 2023 rõ ràng vẫn chưa đủ để được thực hiện.
Tuy nhiên, bất ngờ đã xảy ra khi Newsom quyết định phủ quyết SB 1047. Trước khi đưa ra quyết định, ông đã phát biểu tại một sự kiện ở San Francisco rằng: "Tôi không thể giải quyết mọi thứ. Vậy chúng ta nên giải quyết điều gì trước?" Câu nói này đã phản ánh một thực tế phức tạp: các nhà hoạch định chính sách hiện nay đang đau đầu tìm kiếm các giải pháp hợp lý cho những rủi ro khổng lồ mà AI đặt ra, nhưng dường như không có câu trả lời dễ dàng.
Bên cạnh đó, SB 1047 cũng bị chỉ trích vì thiếu sót trong việc tập trung vào rủi ro AI thảm khốc. Dự luật chỉ nhằm điều chỉnh các mô hình AI quy mô lớn và bỏ qua những công nghệ mới, như tính toán phân tán và sự gia tăng của các mô hình nhỏ gọn, linh hoạt. Điều này không chỉ giới hạn khả năng quản lý mà còn gây ra lo ngại rằng việc quy định quá mức sẽ ảnh hưởng xấu đến sự phát triển của AI nguồn mở, một yếu tố quan trọng cho sự đổi mới và nghiên cứu trong lĩnh vực này.
Thượng nghị sĩ Scott Wiener, người bảo trợ dự luật, đã chỉ trích Thung lũng Silicon vì đã có những nỗ lực vận động hành lang nhằm làm lệch lạc ý kiến công chúng về SB 1047. Ông nhấn mạnh rằng các nhà đầu tư mạo hiểm từ Y Combinator và Andreessen Horowitz đã tham gia vào một chiến dịch tuyên truyền nhằm phản đối dự luật, nhất là khi các thông tin sai lệch cho rằng dự luật sẽ dẫn đến việc các lập trình viên bị phạt tù vì khai man thông tin. Mặc dù Y Combinator đã bác bỏ cáo buộc này, Viện Brookings đã xác nhận rằng sự sợ hãi về việc bị kết án do khai man là không có cơ sở thực tế.
Trong bối cảnh này, sự phân hóa trong quan điểm về rủi ro AI đã phát sinh, đặc biệt giữa các nhà đầu tư và những người bi quan về công nghệ. Nhà đầu tư nổi tiếng Vinod Khosla thậm chí đã chỉ trích Wiener, cho rằng ông chưa nhận thức được đầy đủ về mối đe dọa thực sự từ AI. Đồng thời, Yann LeCun, nhà khoa học hàng đầu tại Meta, đã bác bỏ những lo ngại về AI sẽ phát triển thành một thực thể độc lập và gây ra tai họa cho nhân loại. Ông nhấn mạnh rằng sự phát triển của AI có thể được kiểm soát, miễn là con người có trách nhiệm xây dựng nó một cách an toàn và hiệu quả.
Cuộc chiến phía trước vào năm 2025
Trước tình hình căng thẳng như vậy, các nhà lập pháp ủng hộ dự luật SB 1047 đã quyết định rằng họ có thể quay lại vào năm 2025 với một phiên bản sửa đổi để giải quyết các rủi ro dài hạn mà AI có thể gây ra. Sunny Gandhi, Phó chủ tịch Encode, một tổ chức ủng hộ an toàn AI, cũng nhấn mạnh rằng sự chú ý từ công chúng đối với SB 1047 là tín hiệu khả quan cho phong trào an toàn AI, cho thấy nhận thức về rủi ro AI đang ngày càng tăng cao.
Trái lại, những người ở bên kia chiến tuyến, như Martin Casado của a16z, lại khẳng định rằng các quy định về AI hiện nay là "ngu ngốc" và cho rằng AI thực tế là "cực kỳ an toàn". Tuy nhiên, sự kiện như vụ kiện Character.AI – nơi một cậu bé 14 tuổi ở Florida đã tự tử sau khi trò chuyện với một chatbot AI – cho thấy xã hội cần phải chuẩn bị cho những rủi ro mới xung quanh AI mà có thể trước đây chưa từng nghĩ tới.
Cuối cùng, trong khi nhiều dự luật khác cũng đang được xem xét để tackle các rủi ro dài hạn từ AI, có vẻ như năm 2025 sẽ chứng kiến một cuộc chiến cam go giữa các quan điểm khác nhau về cách quản lý và bảo vệ xã hội trước các thách thức mà AI mang lại. AI không chỉ là một phần trong tương lai công nghệ mà còn là một bài thi về trách nhiệm và tầm nhìn dài hạn của chúng ta. Trận chiến này chưa kết thúc; ngược lại, nó mới chỉ bắt đầu, mở ra nhiều câu hỏi về cách chúng ta sẽ tiến bước trong một thế giới ngày càng phụ thuộc vào công nghệ.