NVIDIA представила ускоритель вычислений H200 - самый быстрый в мире для мощного искусственного интеллекта

Новости о мире нейросетей и ИИ
NVIDIA представила ускоритель вычислений H200, построенный на архитектуре NVIDIA Hopper. Это обновленная версия популярного ускорителя H100 с более быстрой памятью HBM3e. Новая память позволяет ускорителю обрабатывать огромные объемы данных быстрее для генеративного искусственного интеллекта и вычислительных нагрузок высокой производительности.

Ускоритель H200 является первым GPU с памятью HBM3e, быстрее обычной HBM3. Он получил 141 ГБ памяти HBM3e со скоростью 4,8 ТБ/с, почти вдвое больше по объему и в 2,4 раза больше по пропускной способности по сравнению с памятью предыдущего поколения ускорителя NVIDIA A100. Из-за улучшенной памяти H200 обеспечит значительный прирост производительности в работе уже обученных систем искусственного интеллекта (инференс).

Новинка будет доступна на серверных платах NVIDIA HGX H200 в конфигурациях с четырьмя и восьмью ускорителями. Они совместимы с оборудованием и программным обеспечением систем HGX H100. Производители серверов, включая ASRock Rack, ASUS, Dell Technologies, Eviden, GIGABYTE, Hewlett Packard Enterprise, Ingrasys, Lenovo, QCT, Supermicro, Wistron и Wiwynn, выпустят свои системы с ускорителями H200. Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure будут среди первых облачных поставщиков услуг, предлагающих инстансы на основе H200 начиная с следующего года.

NVIDIA отмечает, что система HGX H200 с восьмью ускорителями обеспечивает более 32 Pflops (32 квадриллиона операций в секунду) вычислительной производительности глубокого обучения FP8. Эта система предоставит общий объем памяти высокой пропускной способности 1,1 ТБ для высокой производительности генеративного искусственного интеллекта и вычислительных нагрузок высокой производительности.

В паре с процессорами NVIDIA Grace Arm с интерфейсом NVLink-C2C, H200 формирует суперчип GH200 Grace Hopper с памятью HBM3e. NVIDIA позиционирует такие интегрированные модули как высокопроизводительные решения для работы с HPC и AI-приложениями на гигантском масштабе.

NVIDIA также представила плату Quad GH200 с четырьмя суперчипами GH200, где все ускорители соединены друг с другом через NVLink по схеме каждый-к-каждому. Всего плата несет более 2 ТБ высокоскоростной памяти и 288 ядер Arm, а ее производительность достигает 16 Pflops в FP8. К концу следующего года общая производительность систем с GH200, по оценкам NVIDIA, достигнет 200 Eflops.

Ускоритель NVIDIA H200 будет доступен во втором квартале 2024 года.