Telegram Group & Telegram Channel
Недавно к нам приехали несколько штук карт последнего поколения NVIDIA RTX PRO 6000 Blackwell Server Edition с большим объемом видео-памяти 96 Гб. Конечно, первое желание команды было не просто распаковать, собрать серверы и выставить их на витрину, а проверить, как эти карты ведут себя в реальных задачах ИИ.

Мы устроили тест-драйв: сравнили производительность RTX 6000 PRO с теми серверами, которые у нас уже есть в парке, с NVIDIA H100, A5000 и RTX 5090.

Честно говоря, мы ожидали разницу, но результаты всё равно удивили.

🔹 RTX 6000 PRO почти в 2 раза быстрее по производительности и в 3 раза быстрее по отклику, чем A5000 .
🔹 Несмотря на архитектурные преимущества H100 в задачах инференса RTX PRO 6000 Blackwell Server Edition показывает сравнимые результаты, при этом стоит в 4 раза дешевле.
🔹 LLM-инференс: Qwen3-14B с контекстом 16K работает быстрее, чем на A5000 или 5090, а 96 Гб видеопамяти позволяют спокойно использовать большие модели типа gpt-oss:120b или deepseek-r1:70b используя только один GPU.

RTX PRO 6000 Server Edition — компромисс между RTX 5090 и H100/A100:
▪️Для инференса и работы с графикой/видео даёт почти серверный уровень производительности, но по более низкой цене.
▪️Для обучения моделей H100 все же остаётся предпочтительнее.
Получается интересная картина: для большинства рабочих задач RTX 6000 становится очень разумным выбором — и по производительности, и по цене.

Посмотрите все цифры, графики и подробный разбор в нашей статье в блоге у нас на сайте.

Да вы и сами можете попробовать и провести тесты для ваших задач. Можно взять сервер с NVIDIA RTX 6000 PRO на несколько часов - это получается очень недорого или напишите ребятам из отдела продаж. Мы с удовольствием даем серьезным проектам протестировать сервер бесплатно.

Кстати у нас недавно освободилась партия серверов на RTX 5090. Один из клиентов закончил проект, и эти машины вернулись в пул. Обычно их разбирают быстро, а сейчас на них ещё и действует скидка.

Также мы добавили в наш маркетплейс новые LLM модели, которые можно выбрать при заказе сервера. Север будет сдан уже с предустановленными LLM.

Попробуем еще сделать интересные тесты, пишите в комментариях, что и как стоит протестировать и про что написать.
👍11🔥21🤡1



group-telegram.com/hostkey_ru/352
Create:
Last Update:

Недавно к нам приехали несколько штук карт последнего поколения NVIDIA RTX PRO 6000 Blackwell Server Edition с большим объемом видео-памяти 96 Гб. Конечно, первое желание команды было не просто распаковать, собрать серверы и выставить их на витрину, а проверить, как эти карты ведут себя в реальных задачах ИИ.

Мы устроили тест-драйв: сравнили производительность RTX 6000 PRO с теми серверами, которые у нас уже есть в парке, с NVIDIA H100, A5000 и RTX 5090.

Честно говоря, мы ожидали разницу, но результаты всё равно удивили.

🔹 RTX 6000 PRO почти в 2 раза быстрее по производительности и в 3 раза быстрее по отклику, чем A5000 .
🔹 Несмотря на архитектурные преимущества H100 в задачах инференса RTX PRO 6000 Blackwell Server Edition показывает сравнимые результаты, при этом стоит в 4 раза дешевле.
🔹 LLM-инференс: Qwen3-14B с контекстом 16K работает быстрее, чем на A5000 или 5090, а 96 Гб видеопамяти позволяют спокойно использовать большие модели типа gpt-oss:120b или deepseek-r1:70b используя только один GPU.

RTX PRO 6000 Server Edition — компромисс между RTX 5090 и H100/A100:
▪️Для инференса и работы с графикой/видео даёт почти серверный уровень производительности, но по более низкой цене.
▪️Для обучения моделей H100 все же остаётся предпочтительнее.
Получается интересная картина: для большинства рабочих задач RTX 6000 становится очень разумным выбором — и по производительности, и по цене.

Посмотрите все цифры, графики и подробный разбор в нашей статье в блоге у нас на сайте.

Да вы и сами можете попробовать и провести тесты для ваших задач. Можно взять сервер с NVIDIA RTX 6000 PRO на несколько часов - это получается очень недорого или напишите ребятам из отдела продаж. Мы с удовольствием даем серьезным проектам протестировать сервер бесплатно.

Кстати у нас недавно освободилась партия серверов на RTX 5090. Один из клиентов закончил проект, и эти машины вернулись в пул. Обычно их разбирают быстро, а сейчас на них ещё и действует скидка.

Также мы добавили в наш маркетплейс новые LLM модели, которые можно выбрать при заказе сервера. Север будет сдан уже с предустановленными LLM.

Попробуем еще сделать интересные тесты, пишите в комментариях, что и как стоит протестировать и про что написать.

BY HOSTKEY RUSSIA




Share with your friend now:
group-telegram.com/hostkey_ru/352

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

This provided opportunity to their linked entities to offload their shares at higher prices and make significant profits at the cost of unsuspecting retail investors. The fake Zelenskiy account reached 20,000 followers on Telegram before it was shut down, a remedial action that experts say is all too rare. The S&P 500 fell 1.3% to 4,204.36, and the Dow Jones Industrial Average was down 0.7% to 32,943.33. The Dow posted a fifth straight weekly loss — its longest losing streak since 2019. The Nasdaq Composite tumbled 2.2% to 12,843.81. Though all three indexes opened in the green, stocks took a turn after a new report showed U.S. consumer sentiment deteriorated more than expected in early March as consumers' inflation expectations soared to the highest since 1981. Oh no. There’s a certain degree of myth-making around what exactly went on, so take everything that follows lightly. Telegram was originally launched as a side project by the Durov brothers, with Nikolai handling the coding and Pavel as CEO, while both were at VK. I want a secure messaging app, should I use Telegram?
from us


Telegram HOSTKEY RUSSIA
FROM American