Telegram Group & Telegram Channel
Там nvidia опубликовали статью, а также выложили пост о том, как разработали ChipNeMo - LLM для разработки чипов.

Ну я считаю, что и правильно. Пусть нейронки сами для себя чипы строят, уж они получше кожаных мешков знают, на каком железе им обучаться проще будет.

Вообще звучит пафосно "... can assist one of the most complex engineering efforts: designing semiconductors" в голове сразу рисуется скайнет, который сам для себя разрабатывает процессоры и самостоятельно прокачивается. Но по сути, если заглянуть в саму статью, то примеры использования там приводятся следующие: "Engineering Assistant Chatbot", "EDA Script Generation" (генерация 10-20 строчных скриптов), "Bug Summarization and Analysis". Ну и все. Уже и не так круто выглядит(

Из интересного - пишут, что из-за кастомизации модели под конкретную предметную область удалось существенно снизить количество параметров: с 70 миллиардов в llama-2 до 13 миллиардов в ChipNeMo. То есть если делать модель, заточенную под более конкретные задачи, то можно существенно уменьшить её размер (откупившись парой лет разработки).

[[obsidian]]



group-telegram.com/misha_writes_code/151
Create:
Last Update:

Там nvidia опубликовали статью, а также выложили пост о том, как разработали ChipNeMo - LLM для разработки чипов.

Ну я считаю, что и правильно. Пусть нейронки сами для себя чипы строят, уж они получше кожаных мешков знают, на каком железе им обучаться проще будет.

Вообще звучит пафосно "... can assist one of the most complex engineering efforts: designing semiconductors" в голове сразу рисуется скайнет, который сам для себя разрабатывает процессоры и самостоятельно прокачивается. Но по сути, если заглянуть в саму статью, то примеры использования там приводятся следующие: "Engineering Assistant Chatbot", "EDA Script Generation" (генерация 10-20 строчных скриптов), "Bug Summarization and Analysis". Ну и все. Уже и не так круто выглядит(

Из интересного - пишут, что из-за кастомизации модели под конкретную предметную область удалось существенно снизить количество параметров: с 70 миллиардов в llama-2 до 13 миллиардов в ChipNeMo. То есть если делать модель, заточенную под более конкретные задачи, то можно существенно уменьшить её размер (откупившись парой лет разработки).

[[obsidian]]

BY Миша пишет код




Share with your friend now:
group-telegram.com/misha_writes_code/151

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The regulator said it has been undertaking several campaigns to educate the investors to be vigilant while taking investment decisions based on stock tips. "He has kind of an old-school cyber-libertarian world view where technology is there to set you free," Maréchal said. So, uh, whenever I hear about Telegram, it’s always in relation to something bad. What gives? 'Wild West' Some people used the platform to organize ahead of the storming of the U.S. Capitol in January 2021, and last month Senator Mark Warner sent a letter to Durov urging him to curb Russian information operations on Telegram.
from nl


Telegram Миша пишет код
FROM American