Meta bắt đầu thử nghiệm chip đào tạo AI nội bộ đầu tiên
Meta - chủ sở hữu Facebook đang thử nghiệm con chip nội bộ đầu tiên để đào tạo các hệ thống trí tuệ nhân tạo, một cột mốc quan trọng khi công ty chuyển sang thiết kế nhiều silicon tùy chỉnh hơn và giảm sự phụ thuộc vào các nhà cung cấp bên ngoài như Nvidia.
Công ty truyền thông xã hội lớn nhất thế giới đã bắt đầu triển khai một lượng nhỏ con chip và có kế hoạch tăng cường sản xuất để sử dụng rộng rãi nếu thử nghiệm diễn ra thành công. Nỗ lực phát triển chip nội bộ là một phần trong kế hoạch dài hạn tại Meta nhằm giảm chi phí cơ sở hạ tầng khi công ty đặt cược vào các công cụ AI để thúc đẩy tăng trưởng.
Meta, công ty cũng sở hữu Instagram và WhatsApp đã dự báo tổng chi phí năm 2025 là 114 tỷ USD đến 119 tỷ USD, bao gồm 65 tỷ USD chi tiêu cho cơ sở hạ tầng AI.
Chip mới của Meta là một bộ tăng tốc chuyên dụng, nghĩa là nó được thiết kế để chỉ xử lý các tác vụ dành riêng cho AI. Điều này có thể giúp nó tiết kiệm điện hơn so với các bộ xử lý đồ họa tích hợp (GPU) thường được sử dụng cho khối lượng công việc AI. Meta đang hợp tác với nhà sản xuất chip TSMC có trụ sở tại Đài Loan.
Việc thử nghiệm con chip này là sản phẩm mới nhất trong chương trình Meta Training and Inference Accelerator (MTIA) của công ty. Chương trình đã có khởi đầu không ổn định trong nhiều năm và đã từng loại bỏ một con chip ở giai đoạn phát triển tương tự. Trước đó, Meta đã loại bỏ một chip suy luận tùy chỉnh nội bộ sau khi nó thất bại trong một đợt triển khai thử nghiệm quy mô nhỏ tương tự như đợt mà họ đang thực hiện cho chip đào tạo, thay vào đó, họ đảo ngược hướng đi và đặt hàng GPU Nvidia trị giá hàng tỷ USD vào năm 2022.
Tuy nhiên, năm ngoái Meta đã bắt đầu sử dụng chip MTIA để thực hiện suy luận hoặc quy trình liên quan đến việc chạy hệ thống AI khi người dùng tương tác với nó, cho các hệ thống đề xuất xác định nội dung nào hiển thị trên nguồn cấp tin tức của Facebook và Instagram.
Các giám đốc điều hành của Meta cho biết họ muốn bắt đầu sử dụng chip của riêng mình vào năm 2026 để đào tạo hoặc quy trình tính toán chuyên sâu để cung cấp cho hệ thống AI nhiều dữ liệu để "dạy" cách thực hiện. Cũng giống như chip suy luận, mục tiêu của chip đào tạo là bắt đầu với các hệ thống đề xuất và sau đó sử dụng nó cho các sản phẩm AI tạo ra như Meta AI chatbot, các giám đốc điều hành cho biết.
Công ty truyền thông xã hội này vẫn là một trong những khách hàng lớn nhất của Nvidia kể từ đó, tích lũy một kho GPU để đào tạo các mô hình của mình, bao gồm cả các hệ thống khuyến nghị và quảng cáo và loạt mô hình nền tảng Llama. Các đơn vị này cũng thực hiện suy luận cho hơn 3 tỷ người sử dụng ứng dụng của công ty mỗi ngày.