Там nvidia опубликовали статью, а также выложили пост о том, как разработали ChipNeMo - LLM для разработки чипов.
Ну я считаю, что и правильно. Пусть нейронки сами для себя чипы строят, уж они получше кожаных мешков знают, на каком железе им обучаться проще будет.
Вообще звучит пафосно "... can assist one of the most complex engineering efforts: designing semiconductors" в голове сразу рисуется скайнет, который сам для себя разрабатывает процессоры и самостоятельно прокачивается. Но по сути, если заглянуть в саму статью, то примеры использования там приводятся следующие: "Engineering Assistant Chatbot", "EDA Script Generation" (генерация 10-20 строчных скриптов), "Bug Summarization and Analysis". Ну и все. Уже и не так круто выглядит(
Из интересного - пишут, что из-за кастомизации модели под конкретную предметную область удалось существенно снизить количество параметров: с 70 миллиардов в llama-2 до 13 миллиардов в ChipNeMo. То есть если делать модель, заточенную под более конкретные задачи, то можно существенно уменьшить её размер (откупившись парой лет разработки).
Там nvidia опубликовали статью, а также выложили пост о том, как разработали ChipNeMo - LLM для разработки чипов.
Ну я считаю, что и правильно. Пусть нейронки сами для себя чипы строят, уж они получше кожаных мешков знают, на каком железе им обучаться проще будет.
Вообще звучит пафосно "... can assist one of the most complex engineering efforts: designing semiconductors" в голове сразу рисуется скайнет, который сам для себя разрабатывает процессоры и самостоятельно прокачивается. Но по сути, если заглянуть в саму статью, то примеры использования там приводятся следующие: "Engineering Assistant Chatbot", "EDA Script Generation" (генерация 10-20 строчных скриптов), "Bug Summarization and Analysis". Ну и все. Уже и не так круто выглядит(
Из интересного - пишут, что из-за кастомизации модели под конкретную предметную область удалось существенно снизить количество параметров: с 70 миллиардов в llama-2 до 13 миллиардов в ChipNeMo. То есть если делать модель, заточенную под более конкретные задачи, то можно существенно уменьшить её размер (откупившись парой лет разработки).
Given the pro-privacy stance of the platform, it’s taken as a given that it’ll be used for a number of reasons, not all of them good. And Telegram has been attached to a fair few scandals related to terrorism, sexual exploitation and crime. Back in 2015, Vox described Telegram as “ISIS’ app of choice,” saying that the platform’s real use is the ability to use channels to distribute material to large groups at once. Telegram has acted to remove public channels affiliated with terrorism, but Pavel Durov reiterated that he had no business snooping on private conversations. In the United States, Telegram's lower public profile has helped it mostly avoid high level scrutiny from Congress, but it has not gone unnoticed. Just days after Russia invaded Ukraine, Durov wrote that Telegram was "increasingly becoming a source of unverified information," and he worried about the app being used to "incite ethnic hatred." The picture was mixed overseas. Hong Kong’s Hang Seng Index fell 1.6%, under pressure from U.S. regulatory scrutiny on New York-listed Chinese companies. Stocks were more buoyant in Europe, where Frankfurt’s DAX surged 1.4%. In this regard, Sebi collaborated with the Telecom Regulatory Authority of India (TRAI) to reduce the vulnerability of the securities market to manipulation through misuse of mass communication medium like bulk SMS.
from tw