Đối thủ của Nvidia - Groq - mở rộng sang châu Âu với trung tâm dữ liệu đầu tiên
Startup bán dẫn trí tuệ nhân tạo Groq hôm thứ Hai thông báo đã thiết lập trung tâm dữ liệu đầu tiên tại châu Âu, đánh dấu bước tiến mới trong chiến lược mở rộng quốc tế.
Groq - công ty được hậu thuẫn bởi các quỹ đầu tư của Samsung và Cisco - cho biết trung tâm dữ liệu này được đặt tại Helsinki (Phần Lan), hợp tác cùng tập đoàn hạ tầng số Equinix.
Groq đang tìm cách tận dụng nhu cầu AI ngày càng tăng tại châu Âu, đi theo bước chân của nhiều công ty Mỹ khác cũng đang tăng cường đầu tư vào khu vực này. Khu vực Bắc Âu, đặc biệt, đang trở thành điểm đến hấp dẫn cho các trung tâm dữ liệu nhờ nguồn năng lượng tái tạo dồi dào và khí hậu mát mẻ. Tháng trước, CEO Nvidia Jensen Huang cũng có mặt tại châu Âu và ký kết nhiều thỏa thuận hạ tầng quan trọng, bao gồm cả trung tâm dữ liệu.
Groq hiện được định giá 2,8 tỷ USD và phát triển một loại chip đặc biệt gọi là bộ xử lý ngôn ngữ (LPU - Language Processing Unit). Dòng chip này được thiết kế phục vụ cho tác vụ suy luận (inference) thay vì huấn luyện (training). Trong quá trình suy luận, một mô hình AI đã được huấn luyện trước đó sẽ xử lý dữ liệu đầu vào để đưa ra kết quả - tương tự như cách các chatbot hiện nay hoạt động.
Trong khi Nvidia vẫn thống trị thị trường chip huấn luyện mô hình AI với dòng GPU (graphics processing units), một loạt startup - như SambaNova, Ampere (đang được SoftBank mua lại), Cerebras và Fractile - đang chạy đua để chiếm lĩnh thị phần trong mảng suy luận.
Theo CEO Jonathan Ross, Groq đặt mục tiêu khác biệt hóa mình so với các đối thủ, bao gồm cả Nvidia.
Trong một cuộc phỏng vấn với CNBC hôm thứ Hai, Ross cho biết chip của Nvidia sử dụng các linh kiện đắt đỏ, như bộ nhớ băng thông cao (HBM) - loại linh kiện hiện có rất ít nhà cung cấp. Trong khi đó, chip LPU của Groq không sử dụng HBM và chuỗi cung ứng chủ yếu nằm ở Bắc Mỹ.
“Chúng tôi không bị giới hạn nhiều về nguồn cung - điều này rất quan trọng với mảng suy luận, vốn là thị trường có khối lượng lớn nhưng biên lợi nhuận thấp,” Ross chia sẻ với chương trình Squawk Box Europe của CNBC.
“Chúng tôi rất tốt với cổ đông Nvidia vì chúng tôi sẵn sàng đảm nhận phần công việc khối lượng cao, lợi nhuận thấp, để người khác tập trung vào phần huấn luyện có biên lợi nhuận cao hơn.”
Ross cũng nhấn mạnh tốc độ triển khai công nghệ là một lợi thế của Groq. Ông tiết lộ công ty mới quyết định xây dựng trung tâm dữ liệu tại Helsinki chỉ bốn tuần trước, và hiện tại đang chuyển giá kệ máy chủ vào cơ sở.
“Chúng tôi dự kiến sẽ bắt đầu xử lý lưu lượng từ cuối tuần này. Đây là tốc độ triển khai rất nhanh, hoàn toàn khác biệt so với phần còn lại của thị trường,” Ross nói.
Các nhà hoạch định chính sách châu Âu gần đây đã thúc đẩy khái niệm “AI có chủ quyền”, trong đó yêu cầu các trung tâm dữ liệu phải đặt ngay trong lãnh thổ châu Âu. Ngoài ra, việc đặt máy chủ gần người dùng còn giúp cải thiện tốc độ dịch vụ.
Tập đoàn xây dựng trung tâm dữ liệu toàn cầu Equinix có khả năng kết nối các nhà cung cấp điện toán đám mây lớn như Amazon Web Services và Google Cloud, giúp các doanh nghiệp dễ dàng hợp tác đa nền tảng. Các chip LPU của Groq sẽ được lắp đặt trong trung tâm dữ liệu của Equinix, cho phép khách hàng doanh nghiệp truy cập vào năng lực suy luận AI của Groq thông qua hạ tầng của Equinix.
Groq hiện đã triển khai công nghệ tại các trung tâm dữ liệu ở Mỹ, Canada và Ả Rập Xê Út.