Компания Nvidia привезла на конференцию GTC 2018 не только технологию трассировка лучей в реальном времени, которая уже успела наделать шума. Также глава компании Дженсен Хуанг рассказал о технологиях искусственного интеллекта и глубокого обучения, а также показал новое вычислительное решение Tesla V100 с 32 ГБ памяти HBM2.

Что известно

Как сообщается, Tesla V100 32GB доступна с сегодняшнего дня, а компании Cray, Hewlett Packard Enterprise, IBM, Lenovo, Supermicro и Tyan начнут распространять системы на его основе.

Эта система сможет ещё больше с новой технологией межчиповых соединений NVIDIA NVSwitch, которая объединяет до 16 ускорителей Tesla V100 в единое устройство. Производительность подсистемы памяти в этом случае составляет 2,4 ТБ/сек.

Каждый из NVSwitch содержит 18 портов NVLink (50 ГБ/с на порт), на базовой плате их шесть штук вместе с восемью GPU Tesla V100, и две эти базовые платы могут объединяться в одно целое. Каждый из восьми GPU на одной плате соединён с каждым из шести NVSwitch одиночным NVLink каналом, а восемь портов каждого чипа NVSwitch используются для обмена данными с другой базовой платой. Таким образом, скорость обмена данными каждого из восьми GPU на плате с другими процессорами составит 300 ГБ/сек.

Кроме этого, был представлен сервер глубокого обучения на базе GPU Tesla V100 под названием Nvidia DGX-2.

ИИ-сервер

Как отмечается, его вычислительная мощность составляет 2 петафлопа. Один такой сервер заменяет 300 обычных серверов (15 стоек), при этом он в 60 раз меньше по размеру и в 18 раз более энергоэффективный. Он содержит те самые 16 ускорителей Tesla V100. Другие спецификации суперкомпьютера Nvidia DGX-2 включают 2 процессора Intel Xeon Platinum, до 1,5 ТБ оперативной памяти DDR4, а также NVMe-накопители суммарным объёмом от 30 до 60 ГБ.

Интерфейсы представлены InfiniBand и 100-Гбит Ethernet. Энергопотребление устройства в нагрузке составляет 10 кВт. Цена вопроса — $400 тысяч, поставки начнутся в третьем квартале.