Telegram Group & Telegram Channel
Мы же говорили, что опенсорс рулит ☺️. И вот опять. Qwen Team выпустили новую рассуждающую LLM QwQ-32B с открытой лицензией Apache 2.0. Модель по большинству тестов превосходит OpenAI o1-mini и практически на равных тягается с DeepSeek R1-671B, будучи при этом в 20 раз (!) «легче» последней.

Характеристики модели:
🔸 Основана на вышедшей в феврале нейросети Qwen 2.5
🔸 Архитектура: трансформеры с RoPE, SwiGLU, RMSNorm и смещением внимания QKV
🔸 Количество параметров: 32,5 млрд
🔸 Количество параметров (без встраивания): 31,0 млрд
🔸 Количество слоев: 64
🔸 Количество точек внимания (GQA): 40 для Q и 8 для KV
🔸 Длина контекста: 32 тыс. токенов, с возможностью расширения до 131 072.

Модель специально обучена для решения сложных аналитических задач и, по уверениям разработчиков, особенно эффективна для математических вычислений, разработки и оптимизации ПО, научных и образовательных целей. К тому же она нетребовательна к ресурсам и (в отличие от той же базовой DeepSeek R1) может быть установлена даже на среднем домашнем ПК. И кстати, неплохо владеет русским языком.

Наш комментарий по этому поводу:
👉 Китайские технологические гиганты (а команда Qwen принадлежит концерну Alibaba Group) продолжают атаковать западных конкурентов с их проприетарными моделями, делая ставку на Open Source. Как мы видим на примере DeepSeek, это и экономически вполне оправданно.
👉 Потенциал оптимизации алгоритмов LLM далеко не исчерпан, что ведет к появлению новых мощных и компактных, а главное, дешевых в разработке и обучении моделей, не требующих топового оборудования для запуска.
👉 Открытые лицензии позволяют строить на основе базовых LLM сколько угодно производных, адаптированных под особые задачи и сценарии использования. (Кстати, Qwen сейчас лидирует по количеству таких форков). Нас ждет расцвет SLM (Small Language Models) и облачных AI-решений в разных сферах науки и бизнеса.

🚀 ©ТехноТренды



group-telegram.com/technologies_trends/162
Create:
Last Update:

Мы же говорили, что опенсорс рулит ☺️. И вот опять. Qwen Team выпустили новую рассуждающую LLM QwQ-32B с открытой лицензией Apache 2.0. Модель по большинству тестов превосходит OpenAI o1-mini и практически на равных тягается с DeepSeek R1-671B, будучи при этом в 20 раз (!) «легче» последней.

Характеристики модели:
🔸 Основана на вышедшей в феврале нейросети Qwen 2.5
🔸 Архитектура: трансформеры с RoPE, SwiGLU, RMSNorm и смещением внимания QKV
🔸 Количество параметров: 32,5 млрд
🔸 Количество параметров (без встраивания): 31,0 млрд
🔸 Количество слоев: 64
🔸 Количество точек внимания (GQA): 40 для Q и 8 для KV
🔸 Длина контекста: 32 тыс. токенов, с возможностью расширения до 131 072.

Модель специально обучена для решения сложных аналитических задач и, по уверениям разработчиков, особенно эффективна для математических вычислений, разработки и оптимизации ПО, научных и образовательных целей. К тому же она нетребовательна к ресурсам и (в отличие от той же базовой DeepSeek R1) может быть установлена даже на среднем домашнем ПК. И кстати, неплохо владеет русским языком.

Наш комментарий по этому поводу:
👉 Китайские технологические гиганты (а команда Qwen принадлежит концерну Alibaba Group) продолжают атаковать западных конкурентов с их проприетарными моделями, делая ставку на Open Source. Как мы видим на примере DeepSeek, это и экономически вполне оправданно.
👉 Потенциал оптимизации алгоритмов LLM далеко не исчерпан, что ведет к появлению новых мощных и компактных, а главное, дешевых в разработке и обучении моделей, не требующих топового оборудования для запуска.
👉 Открытые лицензии позволяют строить на основе базовых LLM сколько угодно производных, адаптированных под особые задачи и сценарии использования. (Кстати, Qwen сейчас лидирует по количеству таких форков). Нас ждет расцвет SLM (Small Language Models) и облачных AI-решений в разных сферах науки и бизнеса.

🚀 ©ТехноТренды

BY 📈 ТехноТренды: Технологии, Тренды, IT


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/technologies_trends/162

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The message was not authentic, with the real Zelenskiy soon denying the claim on his official Telegram channel, but the incident highlighted a major problem: disinformation quickly spreads unchecked on the encrypted app. "The argument from Telegram is, 'You should trust us because we tell you that we're trustworthy,'" Maréchal said. "It's really in the eye of the beholder whether that's something you want to buy into." In view of this, the regulator has cautioned investors not to rely on such investment tips / advice received through social media platforms. It has also said investors should exercise utmost caution while taking investment decisions while dealing in the securities market. Now safely in France with his spouse and three of his children, Kliuchnikov scrolls through Telegram to learn about the devastation happening in his home country. However, the perpetrators of such frauds are now adopting new methods and technologies to defraud the investors.
from us


Telegram 📈 ТехноТренды: Технологии, Тренды, IT
FROM American