Cisco ra mắt chip kết nối các trung tâm dữ liệu AI cách nhau 1.600km

Không chỉ tăng tốc độ xử lý, Cisco giới thiệu chip mạng P200, cho phép liên kết các cụm máy chủ đặt cách nhau tới 1.600 km - một bước đi nhằm định nghĩa lại cách thế giới vận hành AI.
Cisco tái định nghĩa mạng AI: kết nối trung tâm dữ liệu cách nhau hơn 1.600 km
Cisco Systems vừa chính thức ra mắt chip mạng P200, dòng chip được thiết kế đặc biệt để kết nối các trung tâm dữ liệu AI trên phạm vi hàng nghìn km. Hai ông lớn của ngành điện toán đám mây, Microsoft Azure và Alibaba Cloud là những khách hàng đầu tiên đăng ký sử dụng công nghệ này.
Theo Reuters, P200 được xem là đối thủ trực tiếp của Broadcom, khi nằm ở trung tâm thiết bị định tuyến mới mà Cisco vừa ra mắt. Bộ đôi này có nhiệm vụ kết nối các cụm trung tâm dữ liệu quy mô lớn, nơi hàng chục nghìn chip xử lý của Nvidia đang vận hành song song để huấn luyện các mô hình trí tuệ nhân tạo khổng lồ. "Những bài huấn luyện AI hiện nay lớn đến mức cần liên kết nhiều trung tâm dữ liệu cách nhau tới 1.000 dặm (hơn 1.600 km)", ông Martin Lund, Phó chủ tịch điều hành mảng phần cứng của Cisco, chia sẻ.
Trước khi P200 xuất hiện, Broadcom Jericho4 được xem là một trong những chip mạng tiên tiến nhất trong lĩnh vực kết nối giữa các trung tâm dữ liệu AI. Theo NetworkWorld và SDxCentral, Jericho4 có thể duy trì kết nối "lossless" - không mất gói dữ liệu, ở khoảng cách hơn 100 km, vốn đã được xem là chuẩn cao trong ngành.
Hiệu năng vượt trội, tiết kiệm năng lượng
Cơn khát điện của các trung tâm dữ liệu đang buộc nhiều công ty phải dịch chuyển địa điểm. Oracle và OpenAI chuyển về Texas, trong khi Meta Platforms chọn Louisiana, nơi có thể cung cấp hàng gigawatt điện cho hạ tầng AI. "Các công ty AI đang đặt trung tâm dữ liệu ở bất kỳ đâu có thể tìm được nguồn điện" - Lund nói thêm.
Cisco không tiết lộ chi phí đầu tư và doanh số kỳ vọng, nhưng cho biết chip P200 có thể thay thế tới 92 chip riêng lẻ chỉ bằng một con duy nhất, giúp giảm 65% điện năng tiêu thụ so với các router thông thường. Một thách thức kỹ thuật lớn của việc kết nối nhiều trung tâm dữ liệu là đồng bộ dữ liệu thời gian thực mà không bị mất gói, đòi hỏi công nghệ buffering (đệm dữ liệu) mà Cisco đã phát triển trong nhiều thập kỷ.
"Quy mô ngày càng lớn của điện toán đám mây và AI đòi hỏi mạng phải nhanh hơn và có khả năng đệm tốt hơn để xử lý các đợt dữ liệu bùng phát", ông Dave Maltz, Phó chủ tịch phụ trách mạng Azure (Microsoft), nhận xét. "Chúng tôi đánh giá cao sự đổi mới mà P200 mang lại cho lĩnh vực này".
Chip P200 cũng đánh dấu bước tiến mới của Cisco trong cuộc đua xây dựng hạ tầng kết nối cho kỷ nguyên AI, nơi mỗi trung tâm dữ liệu không chỉ là một cỗ máy tính, mà đang dần trở thành một phần trong "bộ não toàn cầu" của trí tuệ nhân tạo.