Media is too big
VIEW IN TELEGRAM
Ускоряем Game Assistant
На выходных прикрутил стриминг из ChatGPT в Text-to-speech. UX ощутимо улучшился, теперь бот начинает произносить ответ через пару секунд после того, как пользователь задал вопрос, а не через 15 сек, как было раньше. Бывают моменты, когда он запинается, но для прототипа сойдет.
Теперь стоит вопрос, как соблюдать фактологическую точность. Например, на видео ассистент говорит, что 3-й скилл Queen of Pain наносит 410 урона, хотя на самом деле 300 (400 с талантом). Иногда модель ошибается и дает урон для других скиллов. Может давать описания механик из старых патчей и тд.
Комменты от опытных NLP'шников приветствуются.
На выходных прикрутил стриминг из ChatGPT в Text-to-speech. UX ощутимо улучшился, теперь бот начинает произносить ответ через пару секунд после того, как пользователь задал вопрос, а не через 15 сек, как было раньше. Бывают моменты, когда он запинается, но для прототипа сойдет.
Теперь стоит вопрос, как соблюдать фактологическую точность. Например, на видео ассистент говорит, что 3-й скилл Queen of Pain наносит 410 урона, хотя на самом деле 300 (400 с талантом). Иногда модель ошибается и дает урон для других скиллов. Может давать описания механик из старых патчей и тд.
Комменты от опытных NLP'шников приветствуются.
Forwarded from Сиолошная
Anthropic раскаляет AI-гонку, выпуская Claude 3 в трёх версиях: Opus, Sonnet, и Haiku.
На всех достаточно важных бенчмарках Opus показывают существенный прирост относительно GPT-4.
Opus, наша самая интеллектуальная модель, достигает возможностей понимания, близких к человеческому. Она может ловко обрабатывать широко сформулированные запросы и решать сложные задачи.
— Добавили новую модальность, модель принимает на вход картинки (а значит и видеоряд — как последовательность кадров)
— Лучше понимает языки, отличные от английского (в частности испанский, японский и фрацузский)
— Контекст всё еще 200к токенов
— Цена Opus $15/$75 за 1M токенов на вход и на выход соответственно. Для сравнения GPT-4-turbo стоит $10/$30
— Также обещают, что самая мощная модель имеет «more advanced agentic capabilities», что бы это ни значило :)
— Вдобавок, к модели подключили интерпретатор кода и возможность добавлять свои собственные инструменты
— Самый большой прирост метрик — на задачах, связанных с математикой. Даже без примеров в промпте модель показывает себя лучше, чем Gemini Ultra / GPT-4. Круто, если не переобучение, особенно в контексте того, что модели — НАПОМНЮ, ЭТО МНОГИЕ УПУСКАЮТ — будут использоваться для АВТОМАТИЗАЦИИ научных исследований.
Модели доступны по API сегодня всем, никакого листа ожидания больше нет. Для подписчиков Pro на сайте уже должна быть доступна модель Opus, а Sonet достанется бесплатным пользователям. Заходите: claude.ai
Ночью ждём релиза GPT-4.5 как симметричный ответ, видимо😐 Почему? Потому что релиз Арракиса (кодовое название проекта в OpenAI) отложили до выпуска Дюны 2 😀
На всех достаточно важных бенчмарках Opus показывают существенный прирост относительно GPT-4.
Opus, наша самая интеллектуальная модель, достигает возможностей понимания, близких к человеческому. Она может ловко обрабатывать широко сформулированные запросы и решать сложные задачи.
— Добавили новую модальность, модель принимает на вход картинки (а значит и видеоряд — как последовательность кадров)
— Лучше понимает языки, отличные от английского (в частности испанский, японский и фрацузский)
— Контекст всё еще 200к токенов
— Цена Opus $15/$75 за 1M токенов на вход и на выход соответственно. Для сравнения GPT-4-turbo стоит $10/$30
— Также обещают, что самая мощная модель имеет «more advanced agentic capabilities», что бы это ни значило :)
— Вдобавок, к модели подключили интерпретатор кода и возможность добавлять свои собственные инструменты
— Самый большой прирост метрик — на задачах, связанных с математикой. Даже без примеров в промпте модель показывает себя лучше, чем Gemini Ultra / GPT-4. Круто, если не переобучение, особенно в контексте того, что модели — НАПОМНЮ, ЭТО МНОГИЕ УПУСКАЮТ — будут использоваться для АВТОМАТИЗАЦИИ научных исследований.
Модели доступны по API сегодня всем, никакого листа ожидания больше нет. Для подписчиков Pro на сайте уже должна быть доступна модель Opus, а Sonet достанется бесплатным пользователям. Заходите: claude.ai
Ночью ждём релиза GPT-4.5 как симметричный ответ, видимо
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Срач между Илоном Маском и OpenAI набирает обороты. Последние в ответ на иск выложили часть переписки в паблик
https://openai.com/blog/openai-elon-musk
https://openai.com/blog/openai-elon-musk
This media is not supported in your browser
VIEW IN TELEGRAM
С 2021 года не катался на BMX. А тут взял и раздал. Держу вас в курсе, не благодарите.
This media is not supported in your browser
VIEW IN TELEGRAM
В Вильнюсе народ вышел погулять в воскресный полдень. Голосуют что ли против кого-то?😏
Дмитрий Савостьянов Вещает
Photo
Внезапно мем становится снова актуальным ))
Forwarded from эйай ньюз
Media is too big
VIEW IN TELEGRAM
SMPLer-X: Scaling Up Expressive Human Pose and Shape Estimation
Китайци подвезли СОТУ по монокулярному Pose and Shape estimation. То есть по одному кадру предсказывается 3D поза и форма человека. Покадрово можо применить к любому видео-потоку.
Тут как всегда зарешал масштаб модели и данных. Взяли трансоформер ViT-H на 662M параметров и тренировали на 32 датасетах с 4.5М фреймов, что как бы тоже дохрена для этой задачи.
ViT-H по меркам современного CV не такой уж и большой, но больше чем, все что пробовали на задаче Shape&Pose Estimation до этого, да и довольно шустрый. Скорость инференса даже почти риалтаймовая получилась - 17.5 FPS на Nvidia V100.
Код и веса на гитхабе
Сайт проекта
Статья
Demo на HF
@ai_newz
Китайци подвезли СОТУ по монокулярному Pose and Shape estimation. То есть по одному кадру предсказывается 3D поза и форма человека. Покадрово можо применить к любому видео-потоку.
Тут как всегда зарешал масштаб модели и данных. Взяли трансоформер ViT-H на 662M параметров и тренировали на 32 датасетах с 4.5М фреймов, что как бы тоже дохрена для этой задачи.
ViT-H по меркам современного CV не такой уж и большой, но больше чем, все что пробовали на задаче Shape&Pose Estimation до этого, да и довольно шустрый. Скорость инференса даже почти риалтаймовая получилась - 17.5 FPS на Nvidia V100.
Код и веса на гитхабе
Сайт проекта
Статья
Demo на HF
@ai_newz
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
VastGaussian — SOTA по реконструкции огромных 3D сцен
Гауссовские сплаты конкретно заняли поляну Нерфов в 3D реконструкции. До этого момента были проблемы с использованием сплатов для больших сцен, но теперь и их решили. Получается рендеринг посто высочайшей детализации. Ещё и real-time! Смотрите видео.
Сайт проекта с деталями
@ai_newz
Гауссовские сплаты конкретно заняли поляну Нерфов в 3D реконструкции. До этого момента были проблемы с использованием сплатов для больших сцен, но теперь и их решили. Получается рендеринг посто высочайшей детализации. Ещё и real-time! Смотрите видео.
Сайт проекта с деталями
@ai_newz
Forwarded from 42 секунды
NYT: OpenAI расшифровала миллионы видео на YouTube для обучения модели GPT-4
– OpenAI перестало хватать авторитетных источников около 2022
– Ей потребовалось больше англоязычных текстов для обучения
– OpenAI создала сервис распознавания речи из видео Whisper
– Whisper расшифровывал речь из миллионов видео на YouTube
– При этом подобное решение противоречило правилам сервиса
– Все же OpenAI расшифровала 1+ млн часов видео на YouTube
– Затем тексты расшифровки загружались для модели GPT-4
– Об этом знали часть сотрудников Google, но не остановили ее
– Они боялись, что шумиха покажет, что Google тоже так делает
– Google также использовал видео на YouTube для своего ИИ
– Это потенциально нарушало авторские права их создателей
– Исследователи Цукерберга также думали про обход правил
– Они согласились собирать данные под авторским правом
– Переговоры про права заняли бы слишком много времени
@ftsec
– OpenAI перестало хватать авторитетных источников около 2022
– Ей потребовалось больше англоязычных текстов для обучения
– OpenAI создала сервис распознавания речи из видео Whisper
– Whisper расшифровывал речь из миллионов видео на YouTube
– При этом подобное решение противоречило правилам сервиса
– Все же OpenAI расшифровала 1+ млн часов видео на YouTube
– Затем тексты расшифровки загружались для модели GPT-4
– Об этом знали часть сотрудников Google, но не остановили ее
– Они боялись, что шумиха покажет, что Google тоже так делает
– Google также использовал видео на YouTube для своего ИИ
– Это потенциально нарушало авторские права их создателей
– Исследователи Цукерберга также думали про обход правил
– Они согласились собирать данные под авторским правом
– Переговоры про права заняли бы слишком много времени
@ftsec
Паша Дуров анонсировал годные криптофичи в Telegram
- CEO Tether официально анонсировал запуск USDT на блокчейне TON
- В Telegram появится возможность покупать цифровые товары за криптовалюту.
- Telegram собирается токенизировать стикеры и эмоджи
- С сегодняшнего дня владельцы каналов начнут получать первые выплаты в TON с рекламы
- CEO Tether официально анонсировал запуск USDT на блокчейне TON
- В Telegram появится возможность покупать цифровые товары за криптовалюту.
- Telegram собирается токенизировать стикеры и эмоджи
- С сегодняшнего дня владельцы каналов начнут получать первые выплаты в TON с рекламы
Forwarded from эйай ньюз
Принес еще несколько примеров как работает наш Imagine Flash.
Попробовать можно на meta.ai под американским VPN-ом.
@ai_newz
Попробовать можно на meta.ai под американским VPN-ом.
@ai_newz