Sắp hết thời dùng AI rẻ
Trong bối cảnh chi phí vận hành tăng mạnh, các công ty AI đang đồng loạt điều chỉnh mô hình thuê bao và kiểm soát mức sử dụng…

Ảnh minh hoạ.
Việc sử dụng AI “không giới hạn” được dự báo sẽ sớm kết thúc. Các nhà cung cấp AI đang tính lại bài toán kinh tế, có thể sẽ tăng giá, giới hạn mức sử dụng hay đưa quảng cáo vào dịch vụ.
DOANH NGHIỆP AI VẪN LỖ VÌ THU PHÍ
Theo các nguồn tin, những tên tuổi lớn như OpenAI, Anthropic, Google hay xAI đang tái cấu trúc hệ thống giá. Trước đây, các dịch vụ như ChatGPT, Claude hay Gemini chủ yếu vận hành dựa trên gói thuê bao tháng.
Tại Việt Nam, gói “ChatGPT Go” hiện có mức giá thấp nhất là 132.000 đồng/tháng và cao nhất là 2.849.000/tháng cho cá nhân.
Tuy nhiên, các doanh nghiệp đang tính tách riêng các tính năng hiệu năng cao thành dịch vụ trả phí bổ sung.
Lý do hiển nhiên nằm ở bài toán lợi nhuận. AI mỗi lần tạo ra một câu trả lời, đều tiêu tốn lượng tài nguyên điện toán khổng lồ. Đặc biệt, sự xuất hiện của các mô hình “AI lý luận” thế hệ mới càng đòi hỏi năng lực xử lý sâu hơn và thời gian tính toán dài hơn, đang đẩy chi phí vận hành tăng vọt.
Ngay cả với gói thuê bao 200 USD/tháng, một số người dùng có tần suất sử dụng cao vẫn khiến công ty bị lỗ.
Theo các dự báo tài chính nội bộ, OpenAI có thể ghi nhận khoản lỗ lên tới 14 tỷ USD trong năm nay. Dù ChatGPT đã thu hút khoảng 900 triệu người dùng, tỷ lệ người trả phí vẫn dưới 5%. Phần lớn người dùng vẫn sử dụng phiên bản miễn phí, khiến chi phí ngày càng phình to nhưng doanh thu không tăng trưởng tương ứng.
Sam Altman, Giám đốc điều hành của OpenAI, đã thẳng thắn thừa nhận áp lực này. Theo ông, ngay cả với gói thuê bao 200 USD/tháng, một số người dùng có tần suất sử dụng cao vẫn khiến công ty bị lỗ. Điều này cho thấy mô hình phí cố định khó có thể tiếp tục duy trì khi nhu cầu sử dụng các mô hình hiệu năng cao ngày càng tăng.
Không chỉ OpenAI, Anthropic được cho là đã đạt doanh thu định kỳ hàng năm (ARR) khoảng 30 tỷ USD tính đến tháng 4, nhưng vẫn phải gánh chi phí đào tạo và vận hành khổng lồ.
Theo các ước tính nội bộ, riêng chi phí huấn luyện mô hình AI của công ty này đã lên tới 12 tỷ USD mỗi năm, trong khi chi phí suy luận, tức chi phí để mô hình tạo ra câu trả lời, vào khoảng 7 tỷ USD.
NGHỊCH LÝ JEVONS
Những tập đoàn như Microsoft, Google, Amazon và Meta đang chi hàng trăm tỷ USD mỗi năm để xây dựng trung tâm dữ liệu và mua sắm chip bán dẫn phục vụ AI. Trong năm nay, tổng vốn đầu tư mà các “ông lớn” công nghệ dự kiến đổ vào hạ tầng AI toàn cầu được dự báo sẽ vượt mốc 500 tỷ USD vào năm 2026.
Tuy nhiên, dù tiến bộ công nghệ giúp giảm chi phí cho mỗi đơn vị tính toán, tổng chi phí thực tế của ngành lại không hề giảm mà còn tăng nhanh. Trong một báo cáo gần đây, Gartner dự báo chi phí suy luận AI có thể giảm hơn 90% vào năm 2030. Tuy nhiên, cùng lúc đó, tổ chức này cũng chỉ ra rằng tổng chi phí vẫn leo thang do nhu cầu sử dụng bùng nổ.
Hiện tượng này thường được lý giải bằng "Nghịch lý Jevons" trong kinh tế học: khi hiệu suất tăng lên và chi phí giảm xuống, mức độ sử dụng lại tăng nhanh hơn, dẫn tới tổng mức tiêu thụ không giảm mà còn tăng. Thực tế, dù giá mỗi “token” AI đã giảm mạnh trong những năm qua, tốc độ gia tăng nhu cầu sử dụng còn nhanh hơn nhiều.
Chi phí suy luận AI có thể giảm hơn 90% vào năm 2030, tuy nhiên tổng chi phí vẫn leo thang do nhu cầu sử dụng bùng nổ.
Do đó, thời gian tới, chiến lược hướng tới khách hàng doanh nghiệp sẽ ngày càng được các nhà cung cấp AI đẩy mạnh. Anthropic hiện thu về khoảng 70–80% doanh thu từ khối khách hàng doanh nghiệp, trong khi Google và Microsoft đang tập trung mở rộng thị trường B2B bằng cách tích hợp AI vào nền tảng đám mây và các phần mềm năng suất.
Vào cuối năm ngoái, CoreWeav, một trong những doanh nghiệp cung cấp hạ tầng đám mây AI niêm yết lớn nhất, cũng đã tăng giá dịch vụ hơn 20%, đồng thời siết chặt điều kiện hợp đồng. Cụ thể, công ty bắt đầu yêu cầu các khách hàng quy mô nhỏ phải cam kết sử dụng dịch vụ trong tối thiểu ba năm, thay vì một năm như trước.
Giá thuê theo giờ đối với GPU đã tăng mạnh kể từ mùa thu năm ngoái, phản ánh áp lực thiếu hụt tài nguyên tính toán trong toàn ngành. Anthropic gần đây liên tục gặp phải tình trạng gián đoạn dịch vụ. Để ứng phó, công ty đã bắt đầu áp dụng cơ chế phân bổ tài nguyên tính toán theo khung giờ cao điểm, nhằm kiểm soát nhu cầu sử dụng.
Trong khi đó, OpenAI cũng phải điều chỉnh chiến lược phân bổ tài nguyên. Theo The Wall Street Journal, công ty đã tạm gác ứng dụng tạo video Sora, một phần nhằm giải phóng năng lực tính toán cho các sản phẩm trọng tâm hơn, đặc biệt là mảng lập trình và khách hàng doanh nghiệp.
Dịch vụ AI có thể duy trì giá rẻ, gần như không giới hạn thời gian sử dụng, trong thời gian qua phần lớn nhờ vào dòng vốn đầu tư dồi dào và sự hậu thuẫn của các tập đoàn công nghệ lớn.
Tuy nhiên, khi ngành bước sang giai đoạn phải tự cân đối tài chính, mô hình này khó có thể tiếp tục. Thay vào đó, nhiều ý kiến cho rằng thị trường nhiều khả năng sẽ chuyển sang cơ chế thanh toán theo mức sử dụng, tương tự như dịch vụ điện hay điện toán đám mây.
