NVIDIA выпустила новый графический ускоритель NVIDIA TeslaV100 – самый технически продвинутый в мире GPU для дата-центров, предназначенный для ускорения искусственного интеллекта, HPC и графики. В ближайшее время NVIDIA TESLA V100 будет доступен для заказа в нашей компании. Основанный на самой современной архитектуре GPU NVIDIA Volta, Tesla V100 предлагает в одном GPU производительность, равную 100 CPU, предоставляя ученым, исследователям и инженерам возможность находить решения для ранее нерешаемых проблем.
Все индустрии стремятся к внедрению искусственного интеллекта. В глубине постоянно растущих объемов данных лежат знания, которые могут кардинально изменить каждую отрасль. Самые невероятные возможности, начиная от индивидуального подхода к лечению раковых заболеваний и прогнозирования циклонов и заканчивая виртуальными ассистентами, способными свободно вести беседу, могут стать реальностью, когда ученые получат инструменты, необходимые для реализации своих идей.
Оснащенный 43 тыс. ядер Tensor, Tesla V100 – это первый ускоритель, преодолевший барьер производительности в 100 тера-операций в секунду (TOPS) в задачах глубокого обучения. Второе поколение технологии NVIDIA NVLink соединяет несколько графических ускорителей V100, обеспечивая пропускную способность в 160 ГБ/с и позволяя создавать самые мощные вычислительные серверы. Модели, обучение которых занимало недели на системах предыдущего поколения, теперь можно натренировать всего за несколько дней. Благодаря такому серьезному сокращению времени, затрачиваемого на тренировку алгоритмов, искусственный интеллект поможет решить совершенно новые проблемы.
Ускоритель Tesla V100 создан для обеспечения максимальной производительности в существующих сверхмасштабируемых дата-центрах. Один сервер, оснащенный Tesla V100 GPU и потребляющий 13 кВт энергии, обеспечивает в задачах инференса такую же производительность, как 30 CPU-серверов. Подобный скачок производительности и энергоэффективности способствует расширению масштабов применения сервисов с искусственным интеллектом.