Sự tăng trưởng theo cấp số nhân của khối lượng công việc trí tuệ nhân tạo đang đẩy cơ sở hạ tầng trung tâm dữ liệu truyền thống đến giới hạn, buộc ngành công nghiệp phải tìm kiếm các giải pháp cách mạng để kết nối các cụm GPU khổng lồ. Khi các mô hình AI ngày càng trở nên tinh vi và yêu cầu hàng nghìn GPU hoạt động như các hệ thống thống nhất, các nút thắt cổ chai trong truyền thông dữ liệu đã trở thành những trở ngại quan trọng đối với hiệu suất và hiệu quả.
Co-Packaged Optics: Sự Thay Đổi Mô Hình Trong Kiến Trúc Trung Tâm Dữ Liệu
Câu trả lời của Nvidia cho thử thách này đến dưới dạng công nghệ Co-Packaged Optics (CPO), đại diện cho sự khởi hành cơ bản khỏi các mô-đun quang có thể cắm truyền thống. Công ty đã thông báo rằng CPO sẽ trở thành một yêu cầu cấu trúc thay vì một cải tiến tùy chọn cho các trung tâm dữ liệu AI trong tương lai. Công nghệ này giải quyết những hạn chế nghiêm trọng của các kết nối dựa trên đồng hiện tại, vốn trở nên không thực tế ở tốc độ như 800 Gb/s trên những khoảng cách mở rộng được yêu cầu trong các cấu hình cụm AI hiện đại.
Sự đổi mới cốt lõi nằm ở việc nhúng các động cơ chuyển đổi quang trực tiếp bên cạnh các ASIC chuyển mạch, loại bỏ nhu cầu tín hiệu phải di chuyển qua các đường dẫn điện dài trước khi chuyển đổi thành ánh sáng. Thay đổi kiến trúc này giảm tổn thất điện từ khoảng 22 decibel xuống chỉ 4 decibel, đồng thời cắt giảm mức tiêu thụ điện năng mỗi cổng từ 30W xuống 9W. Những tác động mở rộng vượt ra ngoài những cải thiện hiệu quả đơn thuần, vì việc giảm này loại bỏ nhiều điểm lỗi tiềm ẩn và đơn giản hóa đáng kể việc triển khai kết nối quang.
So sánh CPO với các Module Cắm Truyền Thống
- Tổn Hao Điện: 4 dB ( CPO ) so với 22 dB (truyền thống)
- Tiêu Thụ Điện Năng: 9W mỗi cổng ( CPO ) so với 30W mỗi cổng (truyền thống)
- Hiệu Suất Điện Năng: Cải thiện 3,5 lần với CPO
- Tính Toàn Vẹn Tín Hiệu: Tốt hơn 64 lần với CPO
- Độ Tin Cậy: Cải thiện 10 lần nhờ ít linh kiện hoạt động hơn
- Tốc Độ Triển Khai: Nhanh hơn ~30% với CPO
![]() |
---|
So sánh công nghệ quang học truyền thống và công nghệ đóng gói quang học tích hợp nhằm làm nổi bật những cải tiến về tính toàn vẹn tín hiệu |
Quantum-X InfiniBand: Định Nghĩa Lại Hiệu Suất Mạng
Được lên lịch cho đầu năm 2026, các switch Quantum-X InfiniBand của Nvidia sẽ mang lại khả năng thông lượng chưa từng có là 115 Tb/s mỗi switch. Mỗi đơn vị hỗ trợ 144 cổng hoạt động ở 800 Gb/s, tạo ra một giải pháp mạng mật độ cao được thiết kế đặc biệt cho các triển khai AI quy mô lớn. Việc tích hợp một ASIC chuyên biệt có khả năng xử lý trong mạng 14.4 TFLOPS đại diện cho một bước tiến đáng kể trong kiến trúc điện toán phân tán.
Các switch tích hợp Scalable Hierarchical Aggregation Reduction Protocol (SHARP) thế hệ thứ tư của Nvidia, tối ưu hóa các hoạt động tập thể và giảm độ trễ trong các tình huống điện toán phân tán. Do yêu cầu hiệu suất cực cao, các switch này sẽ yêu cầu hệ thống làm mát bằng chất lỏng để duy trì nhiệt độ hoạt động tối ưu trong điều kiện thông lượng cao.
Thông số kỹ thuật Switch InfiniBand Quantum-X
- Thông lượng: 115 Tb/s mỗi switch
- Cấu hình cổng: 144 cổng với tốc độ 800 Gb/s mỗi cổng
- Sức mạnh xử lý: 14.4 TFLOPS xử lý trong mạng
- Hỗ trợ giao thức: SHARP thế hệ thứ 4
- Làm mát: Yêu cầu làm mát bằng chất lỏng
- Lịch trình ra mắt: Đầu năm 2026
![]() |
---|
Quantum-X Photonics và Spectrum-X Photonics của NVIDIA, cách mạng hóa hiệu suất mạng cho hạ tầng AI |
Spectrum-X Photonics: Sự Tiến Hóa Ethernet Cho Khối Lượng Công Việc AI
Nửa cuối năm 2026 sẽ chứng kiến việc giới thiệu nền tảng Spectrum-X Photonics của Nvidia, mang công nghệ CPO đến các mạng Ethernet. Được xây dựng xung quanh ASIC Spectrum-6, nền tảng này sẽ cung cấp hai cấu hình riêng biệt để phù hợp với các quy mô triển khai khác nhau. Mô hình SN6810 cung cấp băng thông 102.4 Tb/s trên 128 cổng ở 800 Gb/s, trong khi SN6800 lớn hơn mở rộng đáng kể lên 409.6 Tb/s với 512 cổng ở cùng tốc độ mỗi cổng.
Cách tiếp cận tập trung vào Ethernet này đảm bảo tương thích với cơ sở hạ tầng trung tâm dữ liệu hiện có trong khi cung cấp những cải thiện hiệu suất cần thiết cho các ứng dụng AI thế hệ tiếp theo. Giống như đối tác InfiniBand, nền tảng Spectrum-X sẽ sử dụng làm mát bằng chất lỏng để quản lý nhu cầu nhiệt của hoạt động hiệu suất cao.
Các mô hình nền tảng Spectrum-X Photonics
- SN6810: Băng thông 102.4 Tb/s, 128 cổng với tốc độ 800 Gb/s
- SN6800: Băng thông 409.6 Tb/s, 512 cổng với tốc độ 800 Gb/s
- Lịch trình ra mắt: Nửa cuối năm 2026
- Làm mát: Hệ thống làm mát bằng chất lỏng
- Công nghệ: Dựa trên ASIC Spectrum-6
Đối Tác TSMC: Nền Tảng Của Sự Đổi Mới Quang
Lộ trình CPO của Nvidia phù hợp chặt chẽ với việc phát triển nền tảng Compact Universal Photonic Engine (COUPE) của TSMC. Quan hệ đối tác này theo một sự tiến hóa ba giai đoạn bắt đầu với các động cơ quang cho các đầu nối OSFP mang lại tốc độ truyền dữ liệu 1.6 Tb/s. Thế hệ thứ hai kết hợp đóng gói CoWoS với quang co-packaged, cho phép 6.4 Tb/s ở cấp bo mạch chủ. Thế hệ thứ ba cuối cùng nhắm mục tiêu 12.8 Tb/s trong các gói bộ xử lý trong khi tiếp tục giảm mức tiêu thụ điện năng và độ trễ.
Công nghệ COUPE thế hệ đầu tiên của TSMC kết hợp một mạch tích hợp điện tử 65nm với một mạch tích hợp photonic sử dụng công nghệ đóng gói SoIC-X của công ty. Nền tảng này cung cấp khả năng sản xuất cần thiết để thực hiện các mục tiêu hiệu suất đầy tham vọng của Nvidia.
Lộ trình nền tảng COUPE của TSMC
- Thế hệ 1: 1.6 Tb/s cho các đầu nối OSFP
- Thế hệ 2: 6.4 Tb/s với công nghệ đóng gói CoWoS
- Thế hệ 3: 12.8 Tb/s trong các gói bộ xử lý
- Công nghệ: 65nm EIC + PIC sử dụng công nghệ đóng gói SoIC-X
Tác Động Cạnh Tranh và Phản Ứng Ngành
Việc giới thiệu công nghệ CPO định vị Nvidia để duy trì sự thống trị trong cơ sở hạ tầng AI trong khi tạo ra những lợi thế cạnh tranh mới so với các đối thủ như AMD. Những cải thiện đáng kể về hiệu quả, độ tin cậy và khả năng mở rộng mà CPO mang lại có thể trở thành những yếu tố quyết định trong các triển khai AI quy mô lớn. Nvidia tuyên bố rằng so với các mô-đun có thể cắm, công nghệ CPO mang lại hiệu quả năng lượng tốt hơn 3.5 lần, cải thiện tính toàn vẹn tín hiệu 64 lần, độ bền cao hơn 10 lần do ít thành phần hoạt động hơn, và thời gian triển khai nhanh hơn khoảng 30%.
Ngành công nghiệp đã chú ý đến sự thay đổi này, với việc AMD mua lại Enosemi đại diện cho phản ứng trực tiếp với chiến lược kết nối quang của Nvidia. Động lực cạnh tranh này cho thấy rằng công nghệ CPO sẽ trở thành một chiến trường quan trọng trong thị trường cơ sở hạ tầng AI, với những tác động đáng kể đối với các nhà vận hành trung tâm dữ liệu và các công ty AI đang lên kế hoạch triển khai quy mô lớn.
![]() |
---|
Một trung tâm dữ liệu hiện đại thể hiện cơ sở hạ tầng công nghệ tiên tiến cần thiết cho khối lượng công việc AI |