Telegram Group & Telegram Channel
🌋 NM Quad + KAN + JVP (Rukallama): Аппаратная Удача или Как Мы "Взломаем" Обучение AI 🌋

Привет, синтеты!

НАконец-то есть подробности по теме общения с НТЦ "Модуль"! И это не просто "мы договорились о железке". Это история о том, как две, казалось бы, несвязанные технологии из самого авангарда AI внезапно нашли свой идеальный дом в российской архитектуре.

Многие из вас знают, что я пилю Rukallama — языковую модель, построенную на принципах сетей Колмогорова-Арнольда (KAN). В текущей реализации путём гейтинга можно настраивать долю работы KAN в общей сетке. Придётся теперь переделать полностью под efficient-kan так, чтобы KAN (Колмогорова-Арнольда b-splines) работали на 100%. Почему? Моя цель — не просто аппроксимация, а символьная регрессия. То есть, заставить нейросеть не просто выдавать ответ, а выводить саму формулу, по которой этот ответ получен. Это святой грааль интерпретируемости AI.

И для этой задачи я искал подходящее "железо". И, кажется, я его нашел. И это не NVIDIA.
Почему? кхм...короче.


Ключевой замес: KAN, JVP и DSP

Давайте по полкам, но без духоты.

Проблема GPU: Современные видюхи — тупые качки. Они заточены под одну операцию — молотить гигантские матрицы (как в обычных Трансформерах). Обучение на них жрет мегаватты энергии и требует вагоны видеопамяти для хранения градиентов (backpropagation).

Наше решение (Алгоритм): Мы используем noise_step — метод обучения без backprop. Вместо градиентов он использует JVP (Jacobian-Vector Product). Говоря по-простому, он не тащит за собой весь мусор из прошлого, а умными пробами "нащупывает" правильный путь. Памяти на это нужно на порядки меньше. (самое важное и основное, супер киллер фича - отсутствие back propagation, которую надо адаптировать прям под железо).

Наше решение (Архитектура): Сети KAN, в отличие от тупых качков-трансформеров, внутри себя оперируют сложной математикой — B-сплайнами. Это "язык" цифровой обработки сигналов (ЦОС)!!!

И тут на сцену выходит NM Quad от НТЦ "Модуль".


Аппаратная Удача. Буквально.

Когда я впервые связался с разработчиками, они честно сказали: "Наш процессор заточен под большие матрицы, а у вас в KAN, наверное, куча мелких вычислений — будет неэффективно, наш конвейер порвется".

И они были бы на 100% правы, если бы речь шла о KAN двухлетней давности!

Но весь фокус в том, что современная, эффективная реализация KAN (efficient-kan), на которой и строится Rukallama, хитро упаковывает все эти мелкие вычисления в ДВА ОГРОМНЫХ МАТРИЧНЫХ УМНОЖЕНИЯ!

То есть, мы даем их архитектуре именно ту работу, для которой она и создавалась! Проблема "срыва конвейера" просто исчезает.

И вот что мы получаем на выходе.


Идеальный шторм:


Вычисления: Мы загружаем DSP-ядра NM Quad их родной работой — сложной математикой и большими матрицами, где они показывают себя лучше GPU.

Точность: Мы можем использовать режим FP64, который критичен для стабильности KAN, и который у игровых GPU кастрирован.

Память: Нам не нужны 80ГБ VRAM. Наш алгоритм умещается в 20ГБ памяти NM Quad с огромным запасом.

Энергия: Мы обучаем модель, потребляя 80 Вт, а не 500. Почувствуйте разницу.


Что это значит для всех нас?

Это значит, что у нас в руках оказалась уникальная связка российского железа и передового мирового алгоритма, которая не просто "не хуже", а фундаментально эффективнее мейнстримных решений в этой конкретной, но самой перспективной нише AI.


Rukallama — нашла свой новый рукалламин дом, возможно это первая хардварно-софтовая реализация KAN в нашей стране. Я буду активно всем этим заниматься.

На чем тесты?

На данный момент мне идёт через СДЭК вот эта модель: NM Card MINI (5гб)
Получу я её в пользование уже после завтра. Сразу же приступлю к написанию новых версий Rukallama и начну тестировать возможности. Если гипотеза подтвердится, то нас ждут интересные новости ❤️

Перспективы?

Парочка NM Quad в пользование и тесты на пару месяцев чтобы устаканить proof-of-concept и продвинуть отечественный ИИ уже на собственной технической базе. Мечта...
🔥59👍129🎉5❤‍🔥2🤔1😱1



group-telegram.com/technojnec/1205
Create:
Last Update:

🌋 NM Quad + KAN + JVP (Rukallama): Аппаратная Удача или Как Мы "Взломаем" Обучение AI 🌋

Привет, синтеты!

НАконец-то есть подробности по теме общения с НТЦ "Модуль"! И это не просто "мы договорились о железке". Это история о том, как две, казалось бы, несвязанные технологии из самого авангарда AI внезапно нашли свой идеальный дом в российской архитектуре.

Многие из вас знают, что я пилю Rukallama — языковую модель, построенную на принципах сетей Колмогорова-Арнольда (KAN). В текущей реализации путём гейтинга можно настраивать долю работы KAN в общей сетке. Придётся теперь переделать полностью под efficient-kan так, чтобы KAN (Колмогорова-Арнольда b-splines) работали на 100%. Почему? Моя цель — не просто аппроксимация, а символьная регрессия. То есть, заставить нейросеть не просто выдавать ответ, а выводить саму формулу, по которой этот ответ получен. Это святой грааль интерпретируемости AI.

И для этой задачи я искал подходящее "железо". И, кажется, я его нашел. И это не NVIDIA.
Почему? кхм...короче.


Ключевой замес: KAN, JVP и DSP

Давайте по полкам, но без духоты.

Проблема GPU: Современные видюхи — тупые качки. Они заточены под одну операцию — молотить гигантские матрицы (как в обычных Трансформерах). Обучение на них жрет мегаватты энергии и требует вагоны видеопамяти для хранения градиентов (backpropagation).

Наше решение (Алгоритм): Мы используем noise_step — метод обучения без backprop. Вместо градиентов он использует JVP (Jacobian-Vector Product). Говоря по-простому, он не тащит за собой весь мусор из прошлого, а умными пробами "нащупывает" правильный путь. Памяти на это нужно на порядки меньше. (самое важное и основное, супер киллер фича - отсутствие back propagation, которую надо адаптировать прям под железо).

Наше решение (Архитектура): Сети KAN, в отличие от тупых качков-трансформеров, внутри себя оперируют сложной математикой — B-сплайнами. Это "язык" цифровой обработки сигналов (ЦОС)!!!

И тут на сцену выходит NM Quad от НТЦ "Модуль".


Аппаратная Удача. Буквально.

Когда я впервые связался с разработчиками, они честно сказали: "Наш процессор заточен под большие матрицы, а у вас в KAN, наверное, куча мелких вычислений — будет неэффективно, наш конвейер порвется".

И они были бы на 100% правы, если бы речь шла о KAN двухлетней давности!

Но весь фокус в том, что современная, эффективная реализация KAN (efficient-kan), на которой и строится Rukallama, хитро упаковывает все эти мелкие вычисления в ДВА ОГРОМНЫХ МАТРИЧНЫХ УМНОЖЕНИЯ!

То есть, мы даем их архитектуре именно ту работу, для которой она и создавалась! Проблема "срыва конвейера" просто исчезает.

И вот что мы получаем на выходе.


Идеальный шторм:


Вычисления: Мы загружаем DSP-ядра NM Quad их родной работой — сложной математикой и большими матрицами, где они показывают себя лучше GPU.

Точность: Мы можем использовать режим FP64, который критичен для стабильности KAN, и который у игровых GPU кастрирован.

Память: Нам не нужны 80ГБ VRAM. Наш алгоритм умещается в 20ГБ памяти NM Quad с огромным запасом.

Энергия: Мы обучаем модель, потребляя 80 Вт, а не 500. Почувствуйте разницу.


Что это значит для всех нас?

Это значит, что у нас в руках оказалась уникальная связка российского железа и передового мирового алгоритма, которая не просто "не хуже", а фундаментально эффективнее мейнстримных решений в этой конкретной, но самой перспективной нише AI.


Rukallama — нашла свой новый рукалламин дом, возможно это первая хардварно-софтовая реализация KAN в нашей стране. Я буду активно всем этим заниматься.

На чем тесты?

На данный момент мне идёт через СДЭК вот эта модель: NM Card MINI (5гб)
Получу я её в пользование уже после завтра. Сразу же приступлю к написанию новых версий Rukallama и начну тестировать возможности. Если гипотеза подтвердится, то нас ждут интересные новости ❤️

Перспективы?

Парочка NM Quad в пользование и тесты на пару месяцев чтобы устаканить proof-of-concept и продвинуть отечественный ИИ уже на собственной технической базе. Мечта...

BY Техножнец




Share with your friend now:
group-telegram.com/technojnec/1205

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The S&P 500 fell 1.3% to 4,204.36, and the Dow Jones Industrial Average was down 0.7% to 32,943.33. The Dow posted a fifth straight weekly loss — its longest losing streak since 2019. The Nasdaq Composite tumbled 2.2% to 12,843.81. Though all three indexes opened in the green, stocks took a turn after a new report showed U.S. consumer sentiment deteriorated more than expected in early March as consumers' inflation expectations soared to the highest since 1981. Ukrainian forces have since put up a strong resistance to the Russian troops amid the war that has left hundreds of Ukrainian civilians, including children, dead, according to the United Nations. Ukrainian and international officials have accused Russia of targeting civilian populations with shelling and bombardments. At its heart, Telegram is little more than a messaging app like WhatsApp or Signal. But it also offers open channels that enable a single user, or a group of users, to communicate with large numbers in a method similar to a Twitter account. This has proven to be both a blessing and a curse for Telegram and its users, since these channels can be used for both good and ill. Right now, as Wired reports, the app is a key way for Ukrainians to receive updates from the government during the invasion. In view of this, the regulator has cautioned investors not to rely on such investment tips / advice received through social media platforms. It has also said investors should exercise utmost caution while taking investment decisions while dealing in the securities market. The next bit isn’t clear, but Durov reportedly claimed that his resignation, dated March 21st, was an April Fools’ prank. TechCrunch implies that it was a matter of principle, but it’s hard to be clear on the wheres, whos and whys. Similarly, on April 17th, the Moscow Times quoted Durov as saying that he quit the company after being pressured to reveal account details about Ukrainians protesting the then-president Viktor Yanukovych.
from ar


Telegram Техножнец
FROM American