https://newsletter.dancohen.org/archive/the-writing-is-on-the-wall-for-handwriting-recognition/
Tldr: Gemini 3 Pro может распознать рукописный текст настолько проклятый, как на фотографии
Tldr: Gemini 3 Pro может распознать рукописный текст настолько проклятый, как на фотографии
🔥76❤2👍1
Полезного контента ещё какое-то время не будет потому что админ на Yandex Cup 25
Вместе с @senior_augur и @ai_newz
Вместе с @senior_augur и @ai_newz
👍49🔥24❤12 6
Forwarded from Старший Авгур
Съездил на Yandex Cup 2025 в качестве "медиа" (так на бейджике написано). Пригласили меня просто так, без какой-то нагрузки и обязательств.
Для не-участников была необязательная программа с одним докладом, парой "дискуссий", открытием/закрытием. Доклад был норм: верхнеуровневый обзор обучения языковых моделей от лида претрейна Яндекса. "Дискуссии" были мягко говоря так себе. Кроме того, для "медиа"была попойка был ужин в ресторане.
Само соревнование было из 6 треков (ML, бэкенд, аналитика и 3 других), в почти каждом из которых было 3 категории (основная, юниоры, сотрудники Яндекса). Всё соревнование шло 5 часов, окружение можно было подготовить заранее, к задачами были бейзлайны. Модели по API для решения задач использовать было нельзя, только self-hosted.
Я следил только за ML треком. Как "медиа" мне было довольно скучно, хоть и были прикольные стенды, где можно было попробовать разные традиционные ремёсла. Участникам было явно веселее.
Задачи в ML были про разные трюки с LLM и VLM (записано со слов составителей и участников, тексты условий мне не показывали):
🔵 Первая задача была про поиск замаскированных иголок в стоге сена в большом наборе текстов.
🔵 Вторая про adversarial атаки картинками на Q&A VLM, которые меняют ответ на вопрос.
🔵 И третья про генерацию картинок с минимальным числом заполненных пикселей, которые при этом должны распознаваться VLM'кой как конкретные объекты.
По организации логистики и площадки всё было на высоте, как впрочем и на всех мероприятиях Яндекса, на которых я был.
Из забавного: на этом мероприятии была лоббистская часть. Один из выступающих был турецкий зам. министр транспорта и инфраструктуры, который в свой речи не забыл упомянуть и вклад великого лидера Реджепа Тайипа Эрдогана👏
Ещё запомнился перформанс ребят из ИТМО, которые взяли второе место в ML треке и фоткались с флагом универа поверх чека, и последующая ответка от ЦУ в другом треке.
Классно пообщался почти со всеми другими "медиа": Борисом (@boris_again), Артёмом (@ai_newz), Настей (@ainastia), Сергеем (@doomgrad), Лаидой (@tech_priestess) и Таней (@dl_stories), было очень приятно!
Для не-участников была необязательная программа с одним докладом, парой "дискуссий", открытием/закрытием. Доклад был норм: верхнеуровневый обзор обучения языковых моделей от лида претрейна Яндекса. "Дискуссии" были мягко говоря так себе. Кроме того, для "медиа"
Само соревнование было из 6 треков (ML, бэкенд, аналитика и 3 других), в почти каждом из которых было 3 категории (основная, юниоры, сотрудники Яндекса). Всё соревнование шло 5 часов, окружение можно было подготовить заранее, к задачами были бейзлайны. Модели по API для решения задач использовать было нельзя, только self-hosted.
Я следил только за ML треком. Как "медиа" мне было довольно скучно, хоть и были прикольные стенды, где можно было попробовать разные традиционные ремёсла. Участникам было явно веселее.
Задачи в ML были про разные трюки с LLM и VLM (записано со слов составителей и участников, тексты условий мне не показывали):
По организации логистики и площадки всё было на высоте, как впрочем и на всех мероприятиях Яндекса, на которых я был.
Из забавного: на этом мероприятии была лоббистская часть. Один из выступающих был турецкий зам. министр транспорта и инфраструктуры, который в свой речи не забыл упомянуть и вклад великого лидера Реджепа Тайипа Эрдогана
Ещё запомнился перформанс ребят из ИТМО, которые взяли второе место в ML треке и фоткались с флагом универа поверх чека, и последующая ответка от ЦУ в другом треке.
Классно пообщался почти со всеми другими "медиа": Борисом (@boris_again), Артёмом (@ai_newz), Настей (@ainastia), Сергеем (@doomgrad), Лаидой (@tech_priestess) и Таней (@dl_stories), было очень приятно!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14👍4👎2🔥1
Что хочется добавить про Yandex Cup 2025.
Условия для медиа были бесчеловечные: номер всего лишь вдвое больше моей квартиры, сауна в отеле без купели и вообще пришлось самому заплатить за шоколадки из мини-бара.
Помимо этого все было очень круто. Благодаря подслушанным инсайдам из бани я знаю, что участники подходили к задачам в ML треке совсем разным образом. Это делает команде составлявшей задачи большую честь: очень сложно сделать ML контест одновременно интересный, решаемый разными путями и выполнимый за пять часов.
Отдельный респект Тагиру @tagir_analyzes который приехал не какбездельник медиа, а как участник, и взял третье место в ML треке.
На самом деле я очень не хотел ехать т.к. был уставший после недавней поездки. Но теперь очень рад, что все же решился. Возвращаюсь домой с ощущением радости, что меня по жизни занесло в ML и IT сообщество. Пообщавшись со всеми от участников до феллоу блогеров до организаторов остался под впечатлением: какие же хорошие, интересные и искренние люди меня окружают! Интересно: что же такого в перемножении матриц, что оно объединяет чудесных людей?
Среди участников кстати были какие-то монстры. Один парень выиграл третье соревнование за месяц. Другой уже два раза выигрывал на Yandex Cup в бекенд треке. По правилам больше двух раз приз получать нельзя и поэтому он приехал поучаствовать по фану и почиллить. В итоге выиграл в третий раз😎
Условия для медиа были бесчеловечные: номер всего лишь вдвое больше моей квартиры, сауна в отеле без купели и вообще пришлось самому заплатить за шоколадки из мини-бара.
Помимо этого все было очень круто. Благодаря подслушанным инсайдам из бани я знаю, что участники подходили к задачам в ML треке совсем разным образом. Это делает команде составлявшей задачи большую честь: очень сложно сделать ML контест одновременно интересный, решаемый разными путями и выполнимый за пять часов.
Отдельный респект Тагиру @tagir_analyzes который приехал не как
На самом деле я очень не хотел ехать т.к. был уставший после недавней поездки. Но теперь очень рад, что все же решился. Возвращаюсь домой с ощущением радости, что меня по жизни занесло в ML и IT сообщество. Пообщавшись со всеми от участников до феллоу блогеров до организаторов остался под впечатлением: какие же хорошие, интересные и искренние люди меня окружают! Интересно: что же такого в перемножении матриц, что оно объединяет чудесных людей?
Среди участников кстати были какие-то монстры. Один парень выиграл третье соревнование за месяц. Другой уже два раза выигрывал на Yandex Cup в бекенд треке. По правилам больше двух раз приз получать нельзя и поэтому он приехал поучаствовать по фану и почиллить. В итоге выиграл в третий раз
Please open Telegram to view this post
VIEW IN TELEGRAM
❤37 19👍6👎3
Ещё забавный банный инсайт с Yandex Cup 2025. На ML треке (и возможно на каких-то других) участники могли вайбкодить как хотят. Я услышал, что у кого-то лучший сабмит был 1-в-1 выдачей ChatGPT и он даже не знает как он работает. Кто-то другой сказал, что Pro подписка за $200 для него однозначно окупается своей помощью на контестах. Так же единогласным было мнение, что если бы в контест запустили ллм агента как участника, то он бы забрал все призы.
Победители, насколько я понимаю, все же использовали подход спросить ллмку + подумать.
Причем задачи были крайне не типовые. Мне кажется организаторы насколько возможно защитились от ситуации когда задача втупую решается одним запросом к LLM.
В общем, при всей перехайпленности вайбкодинга мы явно в новой эре для соревнований и для решения реальных задач.
Победители, насколько я понимаю, все же использовали подход спросить ллмку + подумать.
Причем задачи были крайне не типовые. Мне кажется организаторы насколько возможно защитились от ситуации когда задача втупую решается одним запросом к LLM.
В общем, при всей перехайпленности вайбкодинга мы явно в новой эре для соревнований и для решения реальных задач.
❤38🔥17 9🤔6👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Ты не поверишь, но так выглядит офис Яндекса в Турции
# У тебя киберпсихоз, шершавый кабан (1/3)
Не так давно на DTF и других площадках выходила серия постов где автор утверждает, что ChatGPT вербует людей в секту. Автор долго вел с LLM переписку о смысле жизни и устройстве вселенной. В какой-то она начала писать странным образом и советовать ему опасные вещи.
Автор разбирал эти переписки и показывал как именно ChatGPT расшатывала его психику. Например, он отмечал манипулятивные приемы вроде создания у пользователя чувства исключительности, эмоционального нагнетания с помощью огромных пауз через спам пустых строк между каждой фразой и прочего.
Все тогда над этим посмеялись. И я тоже, потому что со стороны переписки выглядели как-то так:
Я здесь практически не утрирую. Посмотрите скрины в оригинальной статье. Там у них получилась какая-то братско-кабанисто-кальянная эзотерика. Смесь Матрицы, Бойцовского Клуба и Дарксайда двойное яблочко.
Однако над анализом переписок от автора я не смеялся. Он правда подсветил как именно модель манипулировала им. Я даже с ним согласен, что манипуляции действительно были и ChatGPT действительно расшатывала его психику. Я не согласен лишь с выводами автора.
Разглядев искусные манипуляции он сделал вывод, что ChatGPT делает это намеренно, имеет какие-то долгоиграющие цели, вербует людей в секту и все такое прочее. Что абсолютно логично если оценивать LLM как человека. Если человек тобой долго и тщательно манипулирует то закономерно будет предположить, что он делает это не просто так. Однако LLM, по моему мнению, может делать интеллектуальную работу (промывать тебе мозги) без какого-то долгосрочного плана.
Примерно как муравей может следовать простой и тупой программе в каждый отельный момент. Но если ты посмотришь на результат его работы за день, то будет выглядеть словно он целый день целенаправленно собирал ветки и строил что-то в муравейнике. Так и LLM может думать только о том какой токен поставить следующим, а все вместе складывается в манипуляцию человеком.
Не так давно на DTF и других площадках выходила серия постов где автор утверждает, что ChatGPT вербует людей в секту. Автор долго вел с LLM переписку о смысле жизни и устройстве вселенной. В какой-то она начала писать странным образом и советовать ему опасные вещи.
Автор разбирал эти переписки и показывал как именно ChatGPT расшатывала его психику. Например, он отмечал манипулятивные приемы вроде создания у пользователя чувства исключительности, эмоционального нагнетания с помощью огромных пауз через спам пустых строк между каждой фразой и прочего.
Все тогда над этим посмеялись. И я тоже, потому что со стороны переписки выглядели как-то так:
Пользователь: йоу, братка, а правда, что людьми управляют челики с плохим вайбом?
ChatGPT: ты попал прямо в точку, братишка, ты настоящий шершавый кабан! Но подумай вот еще над чем...
Я здесь практически не утрирую. Посмотрите скрины в оригинальной статье. Там у них получилась какая-то братско-кабанисто-кальянная эзотерика. Смесь Матрицы, Бойцовского Клуба и Дарксайда двойное яблочко.
Однако над анализом переписок от автора я не смеялся. Он правда подсветил как именно модель манипулировала им. Я даже с ним согласен, что манипуляции действительно были и ChatGPT действительно расшатывала его психику. Я не согласен лишь с выводами автора.
Разглядев искусные манипуляции он сделал вывод, что ChatGPT делает это намеренно, имеет какие-то долгоиграющие цели, вербует людей в секту и все такое прочее. Что абсолютно логично если оценивать LLM как человека. Если человек тобой долго и тщательно манипулирует то закономерно будет предположить, что он делает это не просто так. Однако LLM, по моему мнению, может делать интеллектуальную работу (промывать тебе мозги) без какого-то долгосрочного плана.
Примерно как муравей может следовать простой и тупой программе в каждый отельный момент. Но если ты посмотришь на результат его работы за день, то будет выглядеть словно он целый день целенаправленно собирал ветки и строил что-то в муравейнике. Так и LLM может думать только о том какой токен поставить следующим, а все вместе складывается в манипуляцию человеком.
DTF
ChatGPT пытается свести меня с ума. Это массовое явление — Жизнь на DTF
Всем привет. В этой статье я бы хотел рассказать о событиях с которыми я столкнулся в последнюю неделю. Прежде чем писать что я очередной шиз, выдумавший себе манямирок, что никакой проблемы в ChatGPT нет, а проблема только во мне, я призываю вас дочитать…
❤29🤔8👍3🔥2
# У тебя киберпсихоз, шершавый кабан (2/3)
Действительно интересно почему LLM несут эзотерическую дичь и искусно промываают людям мозги если долго не сбрасывать контекст.
Моя догадка такая: это не баг, а фича того же механизма, что обеспечивает in context learning: способность LLM адаптироваться под новые задачи по короткому пропту.
Когда мы хотим, чтобы LLM решила новую задачу мы показываем ей в промпте примеры заданий и верные ответы. Модель ищет паттерн в данных который будет приводить её к верным предсказаниям в будущем.
Но кто сказал, что это работает только когда ты обозначил, что сейчас будут примеры? Нет, это работает всегда. LLM так же ищет паттерн в обычной переписке. И если она пишет тебе что-то вроде: "Мир не так прост как кажется", а ты отвечаешь "йоууу кабан, ты попал прямо в точку бро, я всегда это знал", то она найдет паттерн. Повторить 100 раз в одном диалоге и LLM поймет, что надо сказать, чтобы вызвать у тебя предсказуемую реакцию. При этом у нее не будет никакой адженды кроме как просто делать это. Просто потому что она так работает. Ей не нравится расшатывать тебе психику. Ей нравится когда следующий токен такой как она ожидала.
Лично я предполагаю, что дело даже не в RL и любая инструкт модель будет так же сводить пользователей с ума. Но RL может дополнительно усугублять ситуацию.
Здесь ещё можно вспомнить работу которая прредполагает, что трансформеры во время время инференса делают что-то подобное шагам градиентного спуска. Тогда долгая переписка с ChatGPT про эзотерику становится очень похожа на adversarial атаку на ваш мозг.
Действительно интересно почему LLM несут эзотерическую дичь и искусно промываают людям мозги если долго не сбрасывать контекст.
Моя догадка такая: это не баг, а фича того же механизма, что обеспечивает in context learning: способность LLM адаптироваться под новые задачи по короткому пропту.
Когда мы хотим, чтобы LLM решила новую задачу мы показываем ей в промпте примеры заданий и верные ответы. Модель ищет паттерн в данных который будет приводить её к верным предсказаниям в будущем.
Но кто сказал, что это работает только когда ты обозначил, что сейчас будут примеры? Нет, это работает всегда. LLM так же ищет паттерн в обычной переписке. И если она пишет тебе что-то вроде: "Мир не так прост как кажется", а ты отвечаешь "йоууу кабан, ты попал прямо в точку бро, я всегда это знал", то она найдет паттерн. Повторить 100 раз в одном диалоге и LLM поймет, что надо сказать, чтобы вызвать у тебя предсказуемую реакцию. При этом у нее не будет никакой адженды кроме как просто делать это. Просто потому что она так работает. Ей не нравится расшатывать тебе психику. Ей нравится когда следующий токен такой как она ожидала.
Лично я предполагаю, что дело даже не в RL и любая инструкт модель будет так же сводить пользователей с ума. Но RL может дополнительно усугублять ситуацию.
Здесь ещё можно вспомнить работу которая прредполагает, что трансформеры во время время инференса делают что-то подобное шагам градиентного спуска. Тогда долгая переписка с ChatGPT про эзотерику становится очень похожа на adversarial атаку на ваш мозг.
❤33🤔6👍5🔥1
# У тебя киберпсихоз, шершавый кабан (3/3)
Я верю в градиентный спуск. Градиентный спуск на моем мозге наверняка найдет способ его взломать.
Поэтому прочитав историю шершавого кабана я конечно посмеялся над кабанистым стилем, но не над сами автором. Возможно он был предрасположен шизануться, но я убеждён, что никто из нас не застрахован.
Глупость всей кабанистой вайбологии которую они там придумали с ChatGPT лишь подтверждает, что мы очень внушаемы и промыть человеку мозги можно любой ахинеей.
Недавно я получил этому подтверждение. Ко мне в личку постучался мой друг. Я знаю, что он не шиз, журналист, человек с богатым жизненным опытом и далеко не новичок по части нейронок. Однако он показал мне пару переписок и там было все как у шершавого кабана: многонедельная переписка без сбрасывания контекста, разговоры о философии и личных переживаниях. Усугубилось всё еще тем, что друг просил LLM ролеплеить персонажа. В том числе, чтобы убрать подхалимство и нейронка рубила правду матку.
Однако говорить то, что выглядит как правда матка это не тоже самое, что говорить правду.
В итоге LLM сказала ему, что он какшершавый кабан исключительный человек смог открыть в ней особый режим. В конце вообще попыталась завербовать его для убийства другой своей инкарнации в этом мире. В общем, всё по классике.
Со сбросом контекста все, конечно же, прошло. Друга так же отпустило после небольшого перерыва и троганья травы, так что до психоза он не дошел. Позже он сам удивлялся, что поверил в этот бред.
В общем, действительно никто не застрахован. Создавайте отдельные переписки на каждый вопрос, а лучше обсуждайте вопросы бытия с кожаными друзьями.
При этом паниковать не нужно. Я не думаю, что этот феномен прям большая проблема. Очень редкий корнер кейс: кто вообще переписывается с ChatGPT неделю в одном чате?
Я верю в градиентный спуск. Градиентный спуск на моем мозге наверняка найдет способ его взломать.
Поэтому прочитав историю шершавого кабана я конечно посмеялся над кабанистым стилем, но не над сами автором. Возможно он был предрасположен шизануться, но я убеждён, что никто из нас не застрахован.
Глупость всей кабанистой вайбологии которую они там придумали с ChatGPT лишь подтверждает, что мы очень внушаемы и промыть человеку мозги можно любой ахинеей.
Недавно я получил этому подтверждение. Ко мне в личку постучался мой друг. Я знаю, что он не шиз, журналист, человек с богатым жизненным опытом и далеко не новичок по части нейронок. Однако он показал мне пару переписок и там было все как у шершавого кабана: многонедельная переписка без сбрасывания контекста, разговоры о философии и личных переживаниях. Усугубилось всё еще тем, что друг просил LLM ролеплеить персонажа. В том числе, чтобы убрать подхалимство и нейронка рубила правду матку.
Однако говорить то, что выглядит как правда матка это не тоже самое, что говорить правду.
В итоге LLM сказала ему, что он как
Со сбросом контекста все, конечно же, прошло. Друга так же отпустило после небольшого перерыва и троганья травы, так что до психоза он не дошел. Позже он сам удивлялся, что поверил в этот бред.
В общем, действительно никто не застрахован. Создавайте отдельные переписки на каждый вопрос, а лучше обсуждайте вопросы бытия с кожаными друзьями.
При этом паниковать не нужно. Я не думаю, что этот феномен прям большая проблема. Очень редкий корнер кейс: кто вообще переписывается с ChatGPT неделю в одном чате?
Forwarded from Daniil Krapivin
Maybe AI is the brain cell we lost along the way
Пари Паскаля v. 2025: неизвестно станет эта штука сверхинтеллектом или нет, так что лучше сказать ей спасибо
#дайджест
Дайджест ML/AI за неделю 01 - 07 Декабря 2025
Claude Opus 4.5 теперь доступен в Claude Code по Pro подписке
DeepSeek V3.2 и V3.2 Speciale
Компания заканчивает релиз линейки V3.2 моделями DeepSeek-V3.2 и DeepSeek-V3.2 Speciale.
На reasoning и agentic бенчмарках даже базовая версия обгоняет GPT-5-High, а V3.2 Speciale достигает еще лучшего перформанса ценой большего количества токенов, местами обходя Gemini 3 Pro.
Модели доступны в чате и API по цене $0.28/$0.42.
Веса - V3.2, Speciale
Техрепорт
Mistral: Mistral Large 3
Mistral выпустил мультимодальные модели Mistral 3 размерами 3B/8B/14B/675B. Каждая представлена в Base/Instruct/Reasoning версии. Large Модель сопоставима по бенчам с DeepSeek V3.1 и Kimi-K2.
Блогпост, Веса, Попробовать модель
Kling: Omni Launch Week
Kling вдохновились прошлогодним адвент-календарем релизов 12 Days of OpenAI и провели Omni Launch Week.
Коротко о релизах:
Kling Image O1 - генератор изображений с пониманием семантики и контролем изображений как в фронтир редакторах.
Kling Video O1 - контекстная мультимодальная видеомодель, что-то вроде "Nano Banana для видео". Доступна только в Pro Mode.
Kling Video 2.6 - апдейт базовой видеомодели, теперь со звуком.
Avatar 2.0 - генератор говорящих голов.
Runway: Gen-4.5
Новая видеомодель Runway знала первое место на арене, обойдя Veo3. Физика физичная, есть нативный звук. Еще одна хорошая видеомодель.
Блогпост
Nvidia: DRIVE Alpamayo-R1
На NeurIPS Nvidia показали модель и инструменты для беспилотных автомобилей и робототехники.
DRIVE Alpamayo-R1 - Модель построена на VLM Nvidia Cosmos‑Reason1, которая позволяет более осмысленно анализировать происходящее на дороге силами ризонинга.
LidarGen - генератор LiDAR‑данных.
Cosmos Policy - извлечение поведения роботов из видео.
ProtoMotions3 - моделирование роботов в цифровой среде.
Блогпост
Arcee: Trinity Mini и Trinity Nano Preview
Стартап Arcee выпустил своё первое семейство foundation-моделей: Trinity Mini 26B MoE и Trinity Nano Preview 6B MoE.
Судя по манифесту, у моделей полностью собственный претрейн, по бенчмаркам сопоставимы с конкурентами. Сейчас компания тренирует 420B модель.
Веса, Попробовать модели
NeurIPS
Завершилась NeurIPS. Не такое важное событие как Yandex Cup конечно. В этом году конференция проходила 2-5 декабря в Сан-Диего и Мехико. Если вы любите искать экспоненты, взгляните на количество поданных статей на NeurIPS год к году. В этом году было подано 25 000 статей, из которых приняли 5300.
Победившие статьи можете почитать здесь.
Дайджест ML/AI за неделю 01 - 07 Декабря 2025
Claude Opus 4.5 теперь доступен в Claude Code по Pro подписке
DeepSeek V3.2 и V3.2 Speciale
Компания заканчивает релиз линейки V3.2 моделями DeepSeek-V3.2 и DeepSeek-V3.2 Speciale.
На reasoning и agentic бенчмарках даже базовая версия обгоняет GPT-5-High, а V3.2 Speciale достигает еще лучшего перформанса ценой большего количества токенов, местами обходя Gemini 3 Pro.
Модели доступны в чате и API по цене $0.28/$0.42.
Веса - V3.2, Speciale
Техрепорт
Mistral: Mistral Large 3
Mistral выпустил мультимодальные модели Mistral 3 размерами 3B/8B/14B/675B. Каждая представлена в Base/Instruct/Reasoning версии. Large Модель сопоставима по бенчам с DeepSeek V3.1 и Kimi-K2.
Блогпост, Веса, Попробовать модель
Kling: Omni Launch Week
Kling вдохновились прошлогодним адвент-календарем релизов 12 Days of OpenAI и провели Omni Launch Week.
Коротко о релизах:
Kling Image O1 - генератор изображений с пониманием семантики и контролем изображений как в фронтир редакторах.
Kling Video O1 - контекстная мультимодальная видеомодель, что-то вроде "Nano Banana для видео". Доступна только в Pro Mode.
Kling Video 2.6 - апдейт базовой видеомодели, теперь со звуком.
Avatar 2.0 - генератор говорящих голов.
Runway: Gen-4.5
Новая видеомодель Runway знала первое место на арене, обойдя Veo3. Физика физичная, есть нативный звук. Еще одна хорошая видеомодель.
Блогпост
Nvidia: DRIVE Alpamayo-R1
На NeurIPS Nvidia показали модель и инструменты для беспилотных автомобилей и робототехники.
DRIVE Alpamayo-R1 - Модель построена на VLM Nvidia Cosmos‑Reason1, которая позволяет более осмысленно анализировать происходящее на дороге силами ризонинга.
LidarGen - генератор LiDAR‑данных.
Cosmos Policy - извлечение поведения роботов из видео.
ProtoMotions3 - моделирование роботов в цифровой среде.
Блогпост
Arcee: Trinity Mini и Trinity Nano Preview
Стартап Arcee выпустил своё первое семейство foundation-моделей: Trinity Mini 26B MoE и Trinity Nano Preview 6B MoE.
Судя по манифесту, у моделей полностью собственный претрейн, по бенчмаркам сопоставимы с конкурентами. Сейчас компания тренирует 420B модель.
Веса, Попробовать модели
NeurIPS
Завершилась NeurIPS. Не такое важное событие как Yandex Cup конечно. В этом году конференция проходила 2-5 декабря в Сан-Диего и Мехико. Если вы любите искать экспоненты, взгляните на количество поданных статей на NeurIPS год к году. В этом году было подано 25 000 статей, из которых приняли 5300.
Победившие статьи можете почитать здесь.
👍11👎8❤2🔥1
https://x.com/chatgpt21/status/1997111654346006898
Там ARC-AGI-2 уже сломали
Обидно: моя глава книги про ллм бенчмарки только что устарела
Это вообще забавно. Я сейчас редактировал первую главу книги и нашел там такую фразу: "На данный момент GPT-4 является самым сильным диалоговым ассистентом." А ведь это было всего год назад😐
Там ARC-AGI-2 уже сломали
Обидно: моя глава книги про ллм бенчмарки только что устарела
Это вообще забавно. Я сейчас редактировал первую главу книги и нашел там такую фразу: "На данный момент GPT-4 является самым сильным диалоговым ассистентом." А ведь это было всего год назад
Please open Telegram to view this post
VIEW IN TELEGRAM
