Tầm nhìn của Singapore về An toàn AI thu hẹp khoảng cách giữa Hoa Kỳ và Trung Quốc
Trong khoảnh khắc hiếm hoi đạt được sự đồng thuận toàn cầu, các nhà nghiên cứu AI từ Hoa Kỳ, Châu Âu và Châu Á đã cùng nhau đến Singapore để xây dựng kế hoạch nghiên cứu rủi ro AI.
Chính phủ củaSingapore đã công bố bản thiết kế hôm nay cho sự hợp tác toàn cầu về an toàn trí tuệ nhân tạo sau cuộc họp của các nhà nghiên cứu AI từ Hoa Kỳ, Trung Quốc và Châu Âu. Tài liệu này nêu ra tầm nhìn chung về việc làm việc về an toàn AI thông qua hợp tác quốc tế thay vì cạnh tranh.
“Singapore là một trong số ít quốc gia trên hành tinh này hòa hợp tốt với cả phương Đông và phương Tây”, Max Tegmark, một nhà khoa học tại MIT, người đã giúp triệu tập cuộc họp của những người nổi tiếng về AI vào tháng trước, cho biết. “Họ biết rằng họ sẽ không tự mình xây dựng (trí tuệ nhân tạo tổng quát) - họ sẽ để người khác làm điều đó - vì vậy, việc các quốc gia sẽ xây dựng nó nói chuyện với nhau là rất có lợi cho họ”.
Ảnh minh họa
Các quốc gia được cho là có khả năng xây dựng AGI nhiều nhất, tất nhiên, là Hoa Kỳ và Trung Quốc - và tuy nhiên, những quốc gia này dường như có ý định vượt mặt nhau hơn là hợp tác với nhau. Vào tháng 1, sau khi công ty khởi nghiệp Trung Quốc DeepSeek phát hành một mô hình tiên tiến , Tổng thống Trump đã gọi đó là "lời cảnh tỉnh cho các ngành công nghiệp của chúng ta" và nói rằng Hoa Kỳ cần phải "tập trung cao độ vào việc cạnh tranh để giành chiến thắng".
Thỏa thuận đồng thuận Singapore về các ưu tiên nghiên cứu an toàn AI toàn cầu kêu gọi các nhà nghiên cứu hợp tác trong ba lĩnh vực chính: nghiên cứu các rủi ro do các mô hình AI tiên tiến gây ra, khám phá những cách an toàn hơn để xây dựng các mô hình đó và phát triển các phương pháp kiểm soát hành vi của các hệ thống AI tiên tiến nhất.
Sự đồng thuận đã được đưa ra tại cuộc họp được tổ chức vào ngày 26 tháng 4 cùng với Hội nghị quốc tế về biểu diễn học tập (ICLR), một sự kiện AI hàng đầu được tổ chức tại Singapore trong năm nay.
Các nhà nghiên cứu từ OpenAI, Anthropic, Google DeepMind, xAI và Meta đều tham dự sự kiện an toàn AI, cũng như các học giả từ các tổ chức bao gồm MIT, Stanford, Thanh Hoa và Viện Hàn lâm Khoa học Trung Quốc. Các chuyên gia từ các viện an toàn AI tại Hoa Kỳ, Anh, Pháp, Canada, Trung Quốc, Nhật Bản và Hàn Quốc cũng tham gia.
Xue Lan, hiệu trưởng Đại học Thanh Hoa, cho biết trong một tuyên bố: "Trong thời đại phân mảnh địa chính trị, sự tổng hợp toàn diện các nghiên cứu tiên tiến về an toàn AI này là một dấu hiệu đầy hứa hẹn cho thấy cộng đồng toàn cầu đang cùng nhau cam kết định hình một tương lai AI an toàn hơn".
Sự phát triển của các mô hình AI ngày càng có khả năng, một số trong đó có khả năng đáng ngạc nhiên, đã khiến các nhà nghiên cứu lo lắng về một loạt các rủi ro. Trong khi một số tập trung vào các tác hại trong ngắn hạn bao gồm các vấn đề do hệ thống AI thiên vị gây ra hoặc khả năng tội phạm khai thác công nghệ , thì một số lượng đáng kể tin rằng AI có thể gây ra mối đe dọa hiện hữu đối với nhân loại khi nó bắt đầu đánh lừa con người trên nhiều lĩnh vực hơn. Những nhà nghiên cứu này, đôi khi được gọi là "những kẻ bi quan về AI", lo ngại rằng các mô hình có thể lừa dối và thao túng con người để theo đuổi mục tiêu của riêng chúng.
Tiềm năng của AI cũng đã làm dấy lên cuộc nói chuyện về một cuộc chạy đua vũ trang giữa Hoa Kỳ, Trung Quốc và các quốc gia hùng mạnh khác. Công nghệ này được các nhóm chính sách coi là rất quan trọng đối với sự thịnh vượng kinh tế và sự thống trị của quân đội, và nhiều chính phủ đã tìm cách đưa ra tầm nhìn và quy định riêng của họ để quản lý cách phát triển công nghệ này.
Sự ra mắt của DeepSeek vào tháng 1 đã làm gia tăng nỗi lo ngại rằng Trung Quốc có thể đang bắt kịp hoặc thậm chí vượt qua Hoa Kỳ, bất chấp những nỗ lực hạn chế quyền tiếp cận phần cứng AI của Trung Quốc bằng các biện pháp kiểm soát xuất khẩu. Hiện tại, chính quyền Trump đang cân nhắc các biện pháp bổ sung nhằm hạn chế khả năng xây dựng AI tiên tiến của Trung Quốc.
Chính quyền Trump cũng đã tìm cách giảm nhẹ rủi ro AI để ủng hộ cách tiếp cận tích cực hơn trong việc xây dựng công nghệ tại Hoa Kỳ. Tại một cuộc họp lớn về AI ở Paris vào năm 2025, Phó Tổng thống JD Vance cho biết chính phủ Hoa Kỳ muốn có ít hạn chế hơn đối với việc phát triển và triển khai AI, và mô tả cách tiếp cận trước đây là "quá sợ rủi ro".
Tegmark, nhà khoa học tại MIT, cho biết một số nhà nghiên cứu AI mong muốn "thay đổi cục diện một chút sau thảm họa Paris" bằng cách tập trung sự chú ý trở lại vào những rủi ro tiềm ẩn do AI ngày càng mạnh mẽ gây ra.
Tại cuộc họp ở Singapore, Tegmark đã trình bày một bài báo kỹ thuật thách thức một số giả định về cách AI có thể được xây dựng một cách an toàn. Một số nhà nghiên cứu trước đây đã gợi ý rằng có thể kiểm soát các mô hình AI mạnh mẽ bằng cách sử dụng các mô hình yếu hơn. Bài báo của Tegmark cho thấy động lực này không hiệu quả trong một số tình huống đơn giản , nghĩa là nó có thể không ngăn được các mô hình AI bị trục trặc.
Tegmark cho biết: "Chúng tôi đã cố gắng hết sức để đưa ra con số cho việc này, và về mặt kỹ thuật, nó không hoạt động ở mức độ bạn mong muốn". "Và, bạn biết đấy, rủi ro khá cao".