group-telegram.com/hostkey_ru/352
Last Update:
Недавно к нам приехали несколько штук карт последнего поколения NVIDIA RTX PRO 6000 Blackwell Server Edition с большим объемом видео-памяти 96 Гб. Конечно, первое желание команды было не просто распаковать, собрать серверы и выставить их на витрину, а проверить, как эти карты ведут себя в реальных задачах ИИ.
Мы устроили тест-драйв: сравнили производительность RTX 6000 PRO с теми серверами, которые у нас уже есть в парке, с NVIDIA H100, A5000 и RTX 5090.
Честно говоря, мы ожидали разницу, но результаты всё равно удивили.
🔹 RTX 6000 PRO почти в 2 раза быстрее по производительности и в 3 раза быстрее по отклику, чем A5000 .
🔹 Несмотря на архитектурные преимущества H100 в задачах инференса RTX PRO 6000 Blackwell Server Edition показывает сравнимые результаты, при этом стоит в 4 раза дешевле.
🔹 LLM-инференс: Qwen3-14B с контекстом 16K работает быстрее, чем на A5000 или 5090, а 96 Гб видеопамяти позволяют спокойно использовать большие модели типа gpt-oss:120b или deepseek-r1:70b используя только один GPU.
RTX PRO 6000 Server Edition — компромисс между RTX 5090 и H100/A100:
▪️Для инференса и работы с графикой/видео даёт почти серверный уровень производительности, но по более низкой цене.
▪️Для обучения моделей H100 все же остаётся предпочтительнее.
Получается интересная картина: для большинства рабочих задач RTX 6000 становится очень разумным выбором — и по производительности, и по цене.
Посмотрите все цифры, графики и подробный разбор в нашей статье в блоге у нас на сайте.
Да вы и сами можете попробовать и провести тесты для ваших задач. Можно взять сервер с NVIDIA RTX 6000 PRO на несколько часов - это получается очень недорого или напишите ребятам из отдела продаж. Мы с удовольствием даем серьезным проектам протестировать сервер бесплатно.
Кстати у нас недавно освободилась партия серверов на RTX 5090. Один из клиентов закончил проект, и эти машины вернулись в пул. Обычно их разбирают быстро, а сейчас на них ещё и действует скидка.
Также мы добавили в наш маркетплейс новые LLM модели, которые можно выбрать при заказе сервера. Север будет сдан уже с предустановленными LLM.
Попробуем еще сделать интересные тесты, пишите в комментариях, что и как стоит протестировать и про что написать.
BY HOSTKEY RUSSIA

Share with your friend now:
group-telegram.com/hostkey_ru/352