Warning: mkdir(): No space left on device in /var/www/group-telegram/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/technologies_trends/--): Failed to open stream: No such file or directory in /var/www/group-telegram/post.php on line 50
📈 ТехноТренды: Технологии, Тренды, IT | Telegram Webview: technologies_trends/364 -
Telegram Group & Telegram Channel
IBM представила Granite 4.0 — гибридные LLM с бесконечным контекстом и минимальными требованиями к GPU.

Представленная линейка моделей
Granite-4.0-H-Small — гибрид MoE, 32B параметров (9B активных)
Granite-4.0-H-Tiny — гибрид MoE, 7B (1B активен)
Granite-4.0-H-Micro — плотная гибридная, 3B
Granite-4.0-Micro — традиционный Transformer, 3B (для совместимости с платформами без гибридов)

Удивляет производительность:
Granite 4.0 H Tiny при работе с 1 сессией на 32k контексте требует всего 7 GB VRAM — меньше, чем Qwen3 4B или Granite 3.3.
При 8 параллельных сессиях на 128k контексте Granite укладывается в 15 GB VRAM. Для сравнения: Qwen3 4B тянет на 78 GB, Granite 3.3 — на 90 GB.
👉 Это означает: мощные LLM становятся доступными даже на RTX 3090 (1,5k$, а не H100 за 25k$).

Помните семинар AIRI в мае? Там рассказывали про SSM- арзитектуру. Вот:

«Одним из наиболее интересных аспектов языковых моделей на основе SSM, таких как Mamba, является их способность обрабатывать бесконечно длинные последовательности… Производительность подтверждена на задачах до 128k токенов, но теоретически длина контекста может быть и больше.»


То есть Granite 4.0 открывает дорогу к моделям с неограниченным контекстом на основе SSM.

Важные выводы
Гибридная архитектура (Transformer + Mamba-2) ломает старую парадигму «чем больше GPU, тем лучше».
Granite 4.0 показал отличные результаты в MTRAG-тестах для сложных RAG-сценариев → Retrieval Augmented Generation становится куда менее дорогим и более надёжным.
Модели обучены только на проверенных и этичных данных, что критично для enterprise-сегмента.
IBM активно работает с экосистемой (vLLM, llama.cpp, MLX и др.), чтобы гибридные модели стали полноценным стандартом. На ollama уже есть.

По сути, Granite 4.0 — это не просто «ещё одна LLM», а смена парадигмы: доступные, энергоэффективные модели с бесконечным контекстом и enterprise-гарантиями.

🚀 ©ТехноТренды
1



group-telegram.com/technologies_trends/364
Create:
Last Update:

IBM представила Granite 4.0 — гибридные LLM с бесконечным контекстом и минимальными требованиями к GPU.

Представленная линейка моделей
Granite-4.0-H-Small — гибрид MoE, 32B параметров (9B активных)
Granite-4.0-H-Tiny — гибрид MoE, 7B (1B активен)
Granite-4.0-H-Micro — плотная гибридная, 3B
Granite-4.0-Micro — традиционный Transformer, 3B (для совместимости с платформами без гибридов)

Удивляет производительность:
Granite 4.0 H Tiny при работе с 1 сессией на 32k контексте требует всего 7 GB VRAM — меньше, чем Qwen3 4B или Granite 3.3.
При 8 параллельных сессиях на 128k контексте Granite укладывается в 15 GB VRAM. Для сравнения: Qwen3 4B тянет на 78 GB, Granite 3.3 — на 90 GB.
👉 Это означает: мощные LLM становятся доступными даже на RTX 3090 (1,5k$, а не H100 за 25k$).

Помните семинар AIRI в мае? Там рассказывали про SSM- арзитектуру. Вот:

«Одним из наиболее интересных аспектов языковых моделей на основе SSM, таких как Mamba, является их способность обрабатывать бесконечно длинные последовательности… Производительность подтверждена на задачах до 128k токенов, но теоретически длина контекста может быть и больше.»


То есть Granite 4.0 открывает дорогу к моделям с неограниченным контекстом на основе SSM.

Важные выводы
Гибридная архитектура (Transformer + Mamba-2) ломает старую парадигму «чем больше GPU, тем лучше».
Granite 4.0 показал отличные результаты в MTRAG-тестах для сложных RAG-сценариев → Retrieval Augmented Generation становится куда менее дорогим и более надёжным.
Модели обучены только на проверенных и этичных данных, что критично для enterprise-сегмента.
IBM активно работает с экосистемой (vLLM, llama.cpp, MLX и др.), чтобы гибридные модели стали полноценным стандартом. На ollama уже есть.

По сути, Granite 4.0 — это не просто «ещё одна LLM», а смена парадигмы: доступные, энергоэффективные модели с бесконечным контекстом и enterprise-гарантиями.

🚀 ©ТехноТренды

BY 📈 ТехноТренды: Технологии, Тренды, IT


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/technologies_trends/364

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

And indeed, volatility has been a hallmark of the market environment so far in 2022, with the S&P 500 still down more than 10% for the year-to-date after first sliding into a correction last month. The CBOE Volatility Index, or VIX, has held at a lofty level of more than 30. Some people used the platform to organize ahead of the storming of the U.S. Capitol in January 2021, and last month Senator Mark Warner sent a letter to Durov urging him to curb Russian information operations on Telegram. After fleeing Russia, the brothers founded Telegram as a way to communicate outside the Kremlin's orbit. They now run it from Dubai, and Pavel Durov says it has more than 500 million monthly active users. For tech stocks, “the main thing is yields,” Essaye said. Continuing its crackdown against entities allegedly involved in a front-running scam using messaging app Telegram, Sebi on Thursday carried out search and seizure operations at the premises of eight entities in multiple locations across the country.
from kr


Telegram 📈 ТехноТренды: Технологии, Тренды, IT
FROM American