Thị trường phần cứng AI, vốn lâu nay bị thống trị bởi NVIDIA và AMD, đang chứng kiến một đối thủ thách thức mới đầy táo bạo. Qualcomm, vốn được biết đến với các bộ vi xử lý di động, đã công bố việc tham gia vào lĩnh vực gia tốc AI quy mô rack đầy cạnh tranh với các chip AI200 và AI250 mới của mình. Trong một bước chuyển hướng chiến lược đáng ngạc nhiên, công ty đang loại bỏ bộ nhớ High Bandwidth Memory (HBM) theo tiêu chuẩn ngành để ưu tiên bộ nhớ LPDDR có nguồn gốc từ di động, nhằm mục đích tạo ra một vị thế riêng trong thị trường suy luận AI đang phát triển nhanh chóng với trọng tâm là hiệu suất năng lượng và chi phí.
![]() |
|---|
| Tủ rack máy chủ mới đẹp mắt của Qualcomm làm nổi bật sự gia nhập của họ vào thị trường phần cứng AI với các chip AI200 và AI250 sáng tạo |
Bước Chuyển Kiến Trúc Táo Bạo Sang Bộ Nhớ Di Động
Sự khác biệt đáng kể nhất của Qualcomm so với thông lệ nằm ở kiến trúc bộ nhớ. Trong khi các đối thủ như NVIDIA và AMD dựa vào High Bandwidth Memory (HBM) cho khả năng truyền dữ liệu khổng lồ, các chip AI mới của Qualcomm lại được trang bị tới 768 GB bộ nhớ LPDDR. Cách tiếp cận gần-bộ-nhớ này là một sự tính toán kỹ lưỡng dựa trên nhu cầu cụ thể của việc suy luận AI, nơi kích thước mô hình khổng lồ và dung lượng bộ nhớ có thể quan trọng hơn là băng thông thô. Công ty này đề cao một số lợi thế chính cho thiết kế này, bao gồm hiệu suất năng lượng vượt trội với mức tiêu thụ thấp hơn trên mỗi bit, hồ sơ chi phí hấp dẫn hơn so với các mô-đun HBM đắt đỏ, và mật độ bộ nhớ cao hơn, lý tưởng để lưu giữ các mô hình AI lớn sẵn sàng cho các tác vụ suy luận. Hơn nữa, bộ nhớ LPDDR tạo ra ít nhiệt hơn HBM, góp phần vào hiệu quả nhiệt tốt hơn trong không gian chật hẹp của một rack máy chủ.
Thông số kỹ thuật & So sánh Chip gia tốc AI của Qualcomm
| Tính năng | Qualcomm AI200/AI250 | Bối cảnh ngành |
|---|---|---|
| Loại bộ nhớ | LPDDR (Nguồn gốc từ di động) | HBM (ví dụ: trong GPU NVIDIA/AMD) |
| Bộ nhớ tối đa | Lên đến 768 GB | Thấp hơn 768 GB ở các chip gia tốc cạnh tranh |
| Khối lượng công việc mục tiêu | Suy luận AI | Huấn luyện & Suy luận AI |
| Ưu điểm chính | Hiệu suất năng lượng, chi phí, mật độ bộ nhớ cao | Băng thông bộ nhớ cao |
| Nhược điểm chính | Băng thông thấp hơn, chưa được chứng minh trong sử dụng máy chủ 24/7 | Chi phí cao hơn, tiêu thụ điện năng cao |
| Công suất tiêu thụ trên rack | ~160 kW | Tương đương với rack NVIDIA GB300 |
| Thời điểm ra mắt | AI200: 2026, AI250: 2027 | - |
Nhắm Mục Tiêu Thị Trường Suy Luận AI Với Giải Pháp Quy Mô Rack
AI200 và AI250 không chỉ là những con chip riêng lẻ mà được thiết kế như những khối xây dựng cho các giải pháp suy luận hoàn chỉnh ở quy mô rack. Điều này định vị Qualcomm cạnh tranh trực tiếp với các đối thủ đã có chỗ đứng vững chắc, những người cũng cung cấp các hệ thống tích hợp tương tự. Một điểm bán hàng then chốt là mức tiêu thụ điện năng của hệ thống, với một rack đầy đủ tiêu thụ khoảng 160 kW. Con số này có tính cạnh tranh với các giải pháp hiện đại như rack GB300 của NVIDIA, cho thấy Qualcomm rất nghiêm túc về việc ngang bằng hiệu suất trong lĩnh vực mục tiêu của mình. Các con chip này tận dụng các Đơn vị Xử lý Thần kinh Hexagon (NPU) độc quyền của Qualcomm, vốn đã phát triển trong các nền tảng di động và PC của họ, và giờ đây đang được mở rộng quy mô cho các khối lượng công việc của trung tâm dữ liệu. Các NPU này hỗ trợ các định dạng dữ liệu tiên tiến và được tối ưu hóa đặc biệt cho các mẫu tính toán của quá trình suy luận, thay vì các khối lượng công việc đào tạo mang tính tổng quát hơn.
Sự Đánh Đổi Có Tính Toán Với Những Hạn Chế Vốn Có
Cách tiếp cận đổi mới này không phải là không có sự thỏa hiệp. Bằng cách từ bỏ HBM, các giải pháp của Qualcomm về bản chất phải đối mặt với băng thông bộ nhớ thấp hơn và độ trễ tiềm ẩn cao hơn do giao diện hẹp hơn của LPDDR so với HBM. Đặc điểm cơ bản này khiến các rack AI200 và AI250 trở nên kém phù hợp hơn với các yêu cầu tính toán cường độ cao của việc đào tạo mô hình AI. Sức mạnh của chúng nằm ở việc chạy hiệu quả các mô hình đã được đào tạo trước, một phân khúc mà Qualcomm tin rằng sắp bùng nổ tăng trưởng. Một điểm cần xem xét khác là việc sử dụng bộ nhớ cấp di động trong môi trường đòi hỏi khắt khe, hoạt động 24/7 với nhiệt độ cao của máy chủ trung tâm dữ liệu, một lĩnh vực mà độ tin cậy lâu dài của nó chưa được chứng minh nhiều như bộ nhớ máy chủ chuyên dụng.
Cạnh Tranh Gia Tăng Trong Lĩnh Vực Phần Cứng AI
Sự tham gia của Qualcomm báo hiệu sự phân mảnh hơn nữa của thị trường gia tốc AI, cùng với các đối thủ khác như Intel, những người cũng đang ra mắt các giải pháp suy luận chuyên biệt. Ngành công nghiệp đang nhận ra rằng cách tiếp cận một kích thước phù hợp cho tất cả khi sử dụng GPU được tối ưu hóa cho đào tạo cho mọi tác vụ có thể không phải là con đường hiệu quả nhất. Bằng cách tập trung vào suy luận với một kiến trúc phần cứng độc đáo, Qualcomm đang đặt cược rằng một phần đáng kể của điện toán AI trong tương lai sẽ được dành riêng để phục vụ các mô hình hơn là tạo ra chúng. Thời gian có mặt thương mại của AI200 dự kiến vào năm 2026, với AI250 sẽ ra mắt sau vào năm 2027, cho thị trường thời gian để đánh giá những tuyên bố về hiệu suất-trên-mỗi-đồng-đô-la vượt trội của đối thủ mới này.

