Зростаючий попит на робочі навантаження, пов'язані зі штучним інтелектом, стимулює конкуренцію в галузі мережевих мікросхем
21:13, 21.07.2023
Мережеві компанії змагаються у створенні чіпів, здатних вирішувати завдання штучного інтелекту і машинного навчання. Наприклад, ASIC Silicon One G200 і G202 від Cisco конкурують із пропозиціями Broadcom, NVIDIA і Marvell. Попит на технології ШІ швидко зростає: за прогнозами, світові витрати на ШІ сягнуть 154 млрд дол. у 2023 році та щонайменше 300 млрд дол. до 2026 року. Крім того, до 2027 року майже кожен п'ятий порт Ethernet-комутатора, який купують центри оброблення даних, буде призначений для AI/ML і прискорених обчислень, ідеться у звіті 650 Group.
Дослідження того, як мережеві мікросхеми Cisco збільшують час робочого навантаження
ASIC-системи Silicon One G200 і G202 компанії Cisco виконують завдання ШІ та МН з використанням на 40% меншої кількості комутаторів зі швидкістю 51,2 Тбіт/с. Вони дають змогу організувати кластер ШІ/МН на 32 тис. 400 ГПУ в дворівневій мережі з 50% меншою кількістю оптики і 33% меншою кількістю мережевих рівнів. Ці чіпи пропонують уніфіковану маршрутизацію та комутацію, забезпечуючи конвергентну архітектуру для маршрутизації, комутації та мереж AI/ML. Удосконалене балансування навантаження і надмала затримка роблять їх добре придатними для обробки робочих навантажень AI/ML. Вдосконалені можливості Ethernet ще більше підвищують продуктивність, скорочуючи час виконання завдань у 1,57 раза. За словами Cisco, у G200 і G202 також реалізовано функції балансування навантаження, поліпшену ізоляцію від збоїв і буфер, що повністю розділяється, для підтримки оптичної продуктивності робочих навантажень AI/ML.
Чіпмейкери вирішують проблеми штучного інтелекту
За словами Чопри, виробники мережевих рішень випускають мережеві чипи зі збільшеною пропускною спроможністю і радиксом, що дає їм змогу вирішувати завдання ШІ завдяки підключенню до більшої кількості пристроїв. Крім того, вони забезпечують безперебійний зв'язок між графічними процесорами, усуваючи "вузькі місця" і підвищуючи продуктивність робочих навантажень AI/ML.