Привет! Меня зовут Антон Клочков — и ко мне можно на ты! Сейчас руковожу R&D командой в Яндексе. Про нас лучше всего расскажет этот лендинг!
В прошлом — ML инженер в области компьютерного зрения. Поделал всякое (детекторы, классификаторы, сегментаторы, SLAMы) для всякого: gpu-poor девайсов (например, rpi), gpu-rich серверов. Реализовал фичи как для себя, так и для миллионов пользователей по всему миру. Во всей деятельности меня привлекала прежде всего инженерная сторона вопроса.
Люблю говорить про оптимизации и ускорения, находить странности в языках программирования, а также высказываться на интересующие меня топики.
В этом блоге вы можете почитать душные посты про разработку, непонятные мысли про управление, и даже очень понятные мемы, к которым питаю слабость!
В прошлом — ML инженер в области компьютерного зрения. Поделал всякое (детекторы, классификаторы, сегментаторы, SLAMы) для всякого: gpu-poor девайсов (например, rpi), gpu-rich серверов. Реализовал фичи как для себя, так и для миллионов пользователей по всему миру. Во всей деятельности меня привлекала прежде всего инженерная сторона вопроса.
Люблю говорить про оптимизации и ускорения, находить странности в языках программирования, а также высказываться на интересующие меня топики.
В этом блоге вы можете почитать душные посты про разработку, непонятные мысли про управление, и даже очень понятные мемы, к которым питаю слабость!
Дратути Антон pinned «Привет! Меня зовут Антон Клочков — и ко мне можно на ты! Сейчас руковожу R&D командой в Яндексе. Про нас лучше всего расскажет этот лендинг! В прошлом — ML инженер в области компьютерного зрения. Поделал всякое (детекторы, классификаторы, сегментаторы, SLAMы)…»
Дратути Антон
Готовлю для вас пост по итогам моей недельной поездки на родину! А пока, надеюсь, что фоточки донесут немного вайба до вас☺️
Про итоги
А теперь, наконец-то — про итоги поездки.
Я весьма классно пообщался с бабушкой. Это было невероятно, потому что весь день можно было общаться, а вчером-ночью поработать!
Меня просто закормили холодцами, пирогами, борщами и всем тем, чем любят потчевать внуков их бабушки😁 !
Я подзарядился воздухом и атмосферой абсолютного спокойствия. Замедлился настолько маскимально, насколько это возможно в современном мире. Этого правда очень сильно не хватало.
Кроме того, я немного работал. Когда я общался с ребятами по зуму — все положительно отзывались о ковре, который был не фоном, а настоящим!
После этого я подумал, что пора произвести редизайн канала. И вот оно случилось😂 !
А теперь, наконец-то — про итоги поездки.
Я весьма классно пообщался с бабушкой. Это было невероятно, потому что весь день можно было общаться, а вчером-ночью поработать!
Меня просто закормили холодцами, пирогами, борщами и всем тем, чем любят потчевать внуков их бабушки
Я подзарядился воздухом и атмосферой абсолютного спокойствия. Замедлился настолько маскимально, насколько это возможно в современном мире. Этого правда очень сильно не хватало.
Кроме того, я немного работал. Когда я общался с ребятами по зуму — все положительно отзывались о ковре, который был не фоном, а настоящим!
После этого я подумал, что пора произвести редизайн канала. И вот оно случилось
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Банкста
This media is not supported in your browser
VIEW IN TELEGRAM
Коротко об успехах Deepseek. @banksta
MLE шатает Produnction — В С Ё
Антон поменял канал — ИЗМЕНИЛ название и аватарку. Люди негодуют и не понимают КАКОГО ХРЕНА?
😶 😶 😶 😶 😶 😶 😶 😶 😶
Антон продолжит деятельность канала под новым названием. Почему это произошло уже разобрали в этом посте.
P.S. Протите котика😊
Антон поменял канал — ИЗМЕНИЛ название и аватарку. Люди негодуют и не понимают КАКОГО ХРЕНА?
Антон продолжит деятельность канала под новым названием. Почему это произошло уже разобрали в этом посте.
P.S. Протите котика
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from AbstractDL
DeepSeek-R1 для чайников
Ну и наделала же DeepSeek шуму. Мне пришлось целый хабропост написать 😁
TLDR: мало слов про сравнение с ChatGPT и метрики, много слов про технические детали обучения, датасеты, GRPO и якобы эмерджентный «Aha! moment».
Ну и наделала же DeepSeek шуму. Мне пришлось целый хабропост написать 😁
TLDR: мало слов про сравнение с ChatGPT и метрики, много слов про технические детали обучения, датасеты, GRPO и якобы эмерджентный «Aha! moment».
Особый вклад в найм
Вчера была совершенно неожиданная для меня тусовка, которую устроила компания для тех, кто очень много приносит пользы в процессе найма. И это так классно, что за такую штуку, которую ты просто считаешь своей работой, к тебе приходят и говорят — спасибо😍 !
Нам подарили классную джинсовку и подложили карточку, что сейчас вы можете наблюдать на фотографии.
Что же я такого сделал для найма? Если честно — просто делал свою работу. Собеседования — это очень интересное занятие, на мой вкус. Мне кажется, очень сложно найти такое место, где можно услышать сотню разных (и правильных!) мнений по тому или иному вопросу.
Ну и на самом деле я успел пообщаться уже с большим количеством людей: кто-то только начал свой путь, а кто-то уже тёртый калач, кто-то просит советов, а у кого-то ты во время собеседования и сам учишься.
С другой стороны — это дело трудозатратное. К собеседованию нужно готовиться, потом его нужно оценить и дать внятный фидбек. Это всё занимает времени, но оно того стоит. Я очень рад, что часть людей, которая прошла через меня, уже работает в компании, а с кем-то мы работаем даже бок-о-бок!
Вчера была совершенно неожиданная для меня тусовка, которую устроила компания для тех, кто очень много приносит пользы в процессе найма. И это так классно, что за такую штуку, которую ты просто считаешь своей работой, к тебе приходят и говорят — спасибо
Нам подарили классную джинсовку и подложили карточку, что сейчас вы можете наблюдать на фотографии.
Что же я такого сделал для найма? Если честно — просто делал свою работу. Собеседования — это очень интересное занятие, на мой вкус. Мне кажется, очень сложно найти такое место, где можно услышать сотню разных (и правильных!) мнений по тому или иному вопросу.
Ну и на самом деле я успел пообщаться уже с большим количеством людей: кто-то только начал свой путь, а кто-то уже тёртый калач, кто-то просит советов, а у кого-то ты во время собеседования и сам учишься.
С другой стороны — это дело трудозатратное. К собеседованию нужно готовиться, потом его нужно оценить и дать внятный фидбек. Это всё занимает времени, но оно того стоит. Я очень рад, что часть людей, которая прошла через меня, уже работает в компании, а с кем-то мы работаем даже бок-о-бок!
Please open Telegram to view this post
VIEW IN TELEGRAM
Structured Output в LLMках
Скорее всего все уже знают про то, что с помощью LLMок можно генерить не просто какой-то текст, а даже структурированную информацию (например, json)🌿 . Этакий llm json mode.
Мне стало интересно, как это работает на самом деле (привет Коннор) под капотом, поэтому решил погуглить чего есть для json. Итак, что я нагуглил:
1. https://blog.dottxt.co/coalescence.html
Спойлер: по сути, мы ограничиваем генерацию стейт-машиной. Из-за этого модель жестко ограничена только тем, что заложили в грамматику этой стейт-машины. Приходится напрягаться и подчиняться.
2. https://github.com/noamgat/lm-format-enforcer#how-does-it-work
Спойлер: строят префиксное дерево для токенизатора и парсер для схемки json. Потом ходят двумя указателями (по одному в каждом дереве) и ходят туда, куда могут пойти сразу оба.
У первого способа есть проблема холодного старта и нужно построить стейт-машину, что дольше, чем строить деревья. Но если всё же словарь огромный, то деревья становятся жирнючими и долгими (в построении)👨🦳 , поэтому дешевле стейт-машину завозить.
Вендоры же стараются просто заюзать подобные подходы и либы, просто оптимизируя узкие места (например, стейт-машину)🤯 .
Вопросики😍 : может кто-то еще знает каких-то подробностей, как оно работает? Может быть еще какие-то либы, примеры, алгоритмы?
Скорее всего все уже знают про то, что с помощью LLMок можно генерить не просто какой-то текст, а даже структурированную информацию (например, json)
Мне стало интересно, как это работает на самом деле (привет Коннор) под капотом, поэтому решил погуглить чего есть для json. Итак, что я нагуглил:
1. https://blog.dottxt.co/coalescence.html
Спойлер: по сути, мы ограничиваем генерацию стейт-машиной. Из-за этого модель жестко ограничена только тем, что заложили в грамматику этой стейт-машины. Приходится напрягаться и подчиняться.
2. https://github.com/noamgat/lm-format-enforcer#how-does-it-work
Спойлер: строят префиксное дерево для токенизатора и парсер для схемки json. Потом ходят двумя указателями (по одному в каждом дереве) и ходят туда, куда могут пойти сразу оба.
У первого способа есть проблема холодного старта и нужно построить стейт-машину, что дольше, чем строить деревья. Но если всё же словарь огромный, то деревья становятся жирнючими и долгими (в построении)
Вендоры же стараются просто заюзать подобные подходы и либы, просто оптимизируя узкие места (например, стейт-машину)
Вопросики
Please open Telegram to view this post
VIEW IN TELEGRAM
Сгенерировал пару мемов с помощью @AIMemeArenaBot на основе текстов из прошлых постов.
Мой мир просто:🤯
Мой мир просто:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Улыбайтесь чаще, друзья 😁
Команда Умной Камеры (ребята, привет!) встроило себе небольшую классную пасхалочку, чтобы сделать жизнь пользователей чуточку приятнее. Вы можете открыть и попробовать сами сгенерировать себе комплимент!
Под капотом — VLM! Казалось бы ничего такого, но технически не самая простая задача. Когда-нибудь про это расскажем.
Ссылка на новость — воть.
Красивый я — на фотографии😍
Команда Умной Камеры (ребята, привет!) встроило себе небольшую классную пасхалочку, чтобы сделать жизнь пользователей чуточку приятнее. Вы можете открыть и попробовать сами сгенерировать себе комплимент!
Под капотом — VLM! Казалось бы ничего такого, но технически не самая простая задача. Когда-нибудь про это расскажем.
Ссылка на новость — воть.
Красивый я — на фотографии
Please open Telegram to view this post
VIEW IN TELEGRAM