Định giá 8,1 tỷ đô la của Cerebras gây tranh cãi về tính kinh tế của chip AI quy mô wafer

Nhóm Cộng đồng BigGo
Định giá 8,1 tỷ đô la của Cerebras gây tranh cãi về tính kinh tế của chip AI quy mô wafer

Cerebras Systems vừa hoàn tất vòng gọi vốn Series G trị giá 1,1 tỷ đô la Mỹ, đạt định giá 8,1 tỷ đô la Mỹ. Trong khi công ty tự hào về động cơ quy mô wafer của mình là giải pháp suy luận AI nhanh nhất hiện có, cộng đồng công nghệ đang đặt câu hỏi liệu tính kinh tế có thực sự biện minh cho một định giá khổng lồ như vậy hay không.

Chi tiết tài trợ của Cerebras:

  • Vòng gọi vốn Series G: 1,1 tỷ USD
  • Định giá sau đầu tư: 8,1 tỷ USD
  • Nhà đầu tư dẫn đầu: Fidelity Management & Research Company , Atreides Management
  • Các bên tham gia khác: Tiger Global , Valor Equity Partners , 1789 Capital

Sự đánh đổi giữa tốc độ và chi phí chiếm ưu thế trong cuộc thảo luận

Mối quan tâm chính của cộng đồng tập trung vào cách tiếp cận của Cerebras khi sử dụng bộ nhớ SRAM để đạt được tốc độ suy luận cực nhanh. Người dùng báo cáo trải nghiệm thời gian phản hồi nhanh hơn đáng kể so với các giải pháp dựa trên GPU truyền thống, với một số người thấy tốc độ này hấp dẫn đến mức họ vẫn ưa thích ngay cả khi cần nhiều lần lặp lại để hoàn thành tác vụ. Tuy nhiên, hiệu suất này đi kèm với mức giá cắt cổ. Các nhà quan sát ngành công nghiệp ước tính rằng việc chạy các mô hình lớn như Qwen 3 ở kích thước ngữ cảnh tối đa có thể cần hơn 100 triệu đô la Mỹ chip Cerebras, so với chỉ 1 triệu đô la Mỹ cho phần cứng Nvidia Blackwell tương đương, mặc dù với tốc độ chậm hơn.

SRAM (Static Random Access Memory) nhanh hơn nhưng đắt hơn các loại bộ nhớ khác, trong khi kích thước ngữ cảnh đề cập đến lượng văn bản mà một mô hình AI có thể xử lý cùng lúc.

So sánh hiệu suất:

  • Tốc độ suy luận của Cerebras : nhanh hơn 20 lần so với GPU Nvidia
  • Wafer Scale Engine 3 ( WSE-3 ): lớn hơn 56 lần so với GPU lớn nhất
  • Chi phí chip ước tính: 2-3 triệu USD cho mỗi chip Cerebras
  • So sánh chi phí: hơn 100 triệu USD cho Cerebras so với 1 triệu USD cho Nvidia Blackwell (cùng khối lượng công việc)

Thách thức về khả năng mở rộng đặt ra câu hỏi về tính khả thi lâu dài

Các chuyên gia kỹ thuật trong cộng đồng chỉ ra những hạn chế cơ bản trong cách tiếp cận quy mô wafer của Cerebras. Công nghệ SRAM phần lớn đã ngừng mở rộng với các quy trình sản xuất mới hơn, có thể hạn chế cải tiến hiệu suất trong tương lai. Ngoài ra, các chip ban đầu được thiết kế trước khi các mô hình ngôn ngữ lớn bùng nổ, khiến chúng ít phù hợp hơn để huấn luyện các hệ thống AI khổng lồ ngày nay. Kiến trúc hoạt động tốt cho suy luận khi toàn bộ mô hình vừa với chip, nhưng trở nên kém thuận lợi hơn khi cần truy cập bộ nhớ bên ngoài cho các mô hình lớn hơn.

Tích hợp quy mô wafer có nghĩa là xây dựng một bộ xử lý trên toàn bộ wafer silicon thay vì cắt nó thành các chip nhỏ riêng lẻ.

Vị thế thị trường và trải nghiệm khách hàng không đồng nhất

Bất chấp những lo ngại kỹ thuật, Cerebras đã thu hút được những khách hàng đáng chú ý bao gồm AWS, Meta và các cơ quan chính phủ khác nhau. Công ty phục vụ hàng nghìn tỷ token hàng tháng và xếp hạng là nhà cung cấp suy luận hàng đầu trên Hugging Face với hơn 5 triệu yêu cầu hàng tháng. Tuy nhiên, trải nghiệm khách hàng khác nhau đáng kể. Trong khi một số người dùng khen ngợi tốc độ đáng kinh ngạc cho các tác vụ đơn giản, những người khác báo cáo các vấn đề về độ tin cậy, thời gian phản hồi dịch vụ khách hàng kém và các vấn đề với các tác vụ lập trình phức tạp hơn.

Kể từ khi thành lập, chúng tôi đã thử nghiệm mọi nhà cung cấp suy luận AI trên hàng trăm mô hình. Cerebras luôn nhanh nhất.

Chiến lược định giá của công ty cũng bị chỉ trích, với cam kết tối thiểu hàng tháng từ 1.500 đến 10.000 đô la Mỹ cộng với chi phí sử dụng, có thể hạn chế việc áp dụng trong các nhà phát triển và công ty nhỏ hơn.

Cấu trúc định giá:

  • Gói cá nhân: $50/tháng với giới hạn token hàng ngày
  • Gói nhóm nhỏ: tối thiểu $1,500/tháng
  • Doanh nghiệp: Định giá tùy chỉnh (cần liên hệ)
  • Cam kết tối thiểu hàng tháng: $1,500-$10,000 USD cộng phí sử dụng

Triển vọng tương lai vẫn không chắc chắn

Cuộc tranh luận của cộng đồng phản ánh những câu hỏi rộng hơn về các cách tiếp cận phần cứng AI chuyên biệt. Trong khi Cerebras đã tạo ra một thị trường ngách trong suy luận siêu nhanh, các đối thủ cạnh tranh như Nvidia tiếp tục tiến bộ với các giải pháp linh hoạt hơn cân bằng hiệu suất, chi phí và khả năng mở rộng. Sự thành công của mô hình kinh doanh Cerebras có thể sẽ phụ thuộc vào việc liệu có đủ khách hàng đánh giá tốc độ hơn hiệu quả chi phí hay không, và liệu công ty có thể phát triển công nghệ của mình để giải quyết các mối quan tâm về khả năng mở rộng khi các mô hình AI tiếp tục tăng về kích thước và độ phức tạp.

Tham khảo: Cerebras Systems Raises $1.1 Billion Series G at $8.1 Billion Valuation