FlashWorld: High-quality 3D Scene Generation within Seconds
Генератор 3D-сцен из одного изображения или текстового запроса.
Работает быстрее аналогов и обеспечивает более высокое качество рендеринга.
Под капотом гауссианы, но при этом авторы постарались избавиться от неконсистентности которую они дают.
Генерирует сцену за 7 секунд на одном GPU
Код
#image2scene #imageto3d #gaussian
Генератор 3D-сцен из одного изображения или текстового запроса.
Работает быстрее аналогов и обеспечивает более высокое качество рендеринга.
Под капотом гауссианы, но при этом авторы постарались избавиться от неконсистентности которую они дают.
Генерирует сцену за 7 секунд на одном GPU
Код
#image2scene #imageto3d #gaussian
👍6🔥4❤1
Нейронавт | Нейросети в творчестве
FLASHVSR: Towards Real-Time Diffusion-Based Streaming Video Super-Resolution Апскейл-реставрация видео в реальном времени на базе WAN 2.1 ∼17 FPS for 768 × 1408 на одном A100 GPU Рекомендуют всегда делать апскейл 4x для лучших результатов Использует три…
This media is not supported in your browser
VIEW IN TELEGRAM
офигеть! всего 115 секунд на моей 4060
Я думал ну полчаса подожду
ДА, лицо, буквы, лого и цвет исказил но я впечатлен!
Я думал ну полчаса подожду
ДА, лицо, буквы, лого и цвет исказил но я впечатлен!
🔥8👍2😐1
This media is not supported in your browser
VIEW IN TELEGRAM
Sa2VA: Marrying SAM2 with LLaVA for Dense Grounded Understanding of Images and Videos
Унифицированная модель для глубокого понимания изображений и видео от ByteDance
Сочетает SAM2 с LLaVA для #SOTA в сегментации и обсуждения визуального контента.
Линейка от 1.5B до 7B на базе Qwen2.5-VL и InternVL2.5/3
Гитхаб
Демо
Демо градио - сейчас не работает
#segmentation #vlm #assistant #video2text #vide2mask #captiopning
Унифицированная модель для глубокого понимания изображений и видео от ByteDance
Сочетает SAM2 с LLaVA для #SOTA в сегментации и обсуждения визуального контента.
Линейка от 1.5B до 7B на базе Qwen2.5-VL и InternVL2.5/3
Гитхаб
Демо
Демо градио - сейчас не работает
#segmentation #vlm #assistant #video2text #vide2mask #captiopning
🔥4
MobileLLM-P1
Компактная LLM для мобилок от Meta (запрещено в РФ) на 2.2 ГБ
Контекстное окно до 128 тысяч токенов
Использует комбинацию локального и глобального внимания, сокращая время предварительного заполнения и уменьшая размер кэша KV
Есть базовая модель и Instruct. Обе видимо квантованые
Русского, похоже, не знает, но вообще для крохотной модельки хорош
Доступ к весам по запросу. Попробовать в чате можно на HF:
Демо
#assistant #mobile
Компактная LLM для мобилок от Meta (запрещено в РФ) на 2.2 ГБ
Контекстное окно до 128 тысяч токенов
Использует комбинацию локального и глобального внимания, сокращая время предварительного заполнения и уменьшая размер кэша KV
Есть базовая модель и Instruct. Обе видимо квантованые
Русского, похоже, не знает, но вообще для крохотной модельки хорош
Доступ к весам по запросу. Попробовать в чате можно на HF:
Демо
#assistant #mobile
👍5
This media is not supported in your browser
VIEW IN TELEGRAM
Редактор картинок Nano Banana добавили в Google Search
Говорят что работает без VPN
1. Открываем Lens в приложении Google на Android или iOS.
2. Выбираем новый режим «Создать» с иконкой бананы
3. ...
4. Profit
#mobile #imageediting #news
Говорят что работает без VPN
1. Открываем Lens в приложении Google на Android или iOS.
2. Выбираем новый режим «Создать» с иконкой бананы
3. ...
4. Profit
#mobile #imageediting #news
👎10👀1
This media is not supported in your browser
VIEW IN TELEGRAM
PhysMaster: Mastering Physical Representation for Video Generation via Reinforcement Learning
Улучшайзер физики для видеогенераторов. Направляет видеогенератор учитывать физические законы при генерации.
Код ждем
#simulation #physics #text2video #conditioning
Улучшайзер физики для видеогенераторов. Направляет видеогенератор учитывать физические законы при генерации.
Код ждем
#simulation #physics #text2video #conditioning
👍2😐2
Haiku 4.5
Новая компактная модель Haiku 4.5 от Anthropic выдает уровень качества Sonnet 4, но при этом работает в два раза быстрее и стоит втрое дешевле
Впечатляющие результаты на SWE-bench, 73.3%. Это превосходит показатели Claude Sonnet 4, которая полгода назад считалась одной из лучших моделей для кодинга (72.7%)
Кроме того, Claude Haiku 4.5 превосходит Sonnet 4 на Computer Use. Это делает её полноценной заменой не только Haiku 3.5, но и более масштабной модели Sonnet 4.
Модель уже доступна в Claude Code, интегрирована в Chrome, а также через чат и API.
#news #assistant
Новая компактная модель Haiku 4.5 от Anthropic выдает уровень качества Sonnet 4, но при этом работает в два раза быстрее и стоит втрое дешевле
Впечатляющие результаты на SWE-bench, 73.3%. Это превосходит показатели Claude Sonnet 4, которая полгода назад считалась одной из лучших моделей для кодинга (72.7%)
Кроме того, Claude Haiku 4.5 превосходит Sonnet 4 на Computer Use. Это делает её полноценной заменой не только Haiku 3.5, но и более масштабной модели Sonnet 4.
Модель уже доступна в Claude Code, интегрирована в Chrome, а также через чат и API.
#news #assistant
👍2
WithAnyone: Towards Controllable and ID Consistent Image Generation
И еще один мультиперсонализатор / редактор картинок от ByteDance на базе Flux kontext dev.
Создает изображения сразу с несколькими заданными лицами.
Контролирует выражения лиц, причёски, аксессуары и позы, избегая артефактов «копипаста»
Может работать с лорами
Код - большей частью заимствован из USO
HF
Демо
#personalization #referencing #text2image
И еще один мультиперсонализатор / редактор картинок от ByteDance на базе Flux kontext dev.
Создает изображения сразу с несколькими заданными лицами.
Контролирует выражения лиц, причёски, аксессуары и позы, избегая артефактов «копипаста»
Может работать с лорами
Код - большей частью заимствован из USO
HF
Демо
#personalization #referencing #text2image
👍4🔥3
NEO Series: Native Vision-Language Models
Cемейство нативных vision-language моделей (VLM), объединяет изображения и текст в едином семантическом пространстве
В отличие от аналогов, NEO1_0:
— лучше справляется с унификацией визуальных и лингвистических свойств
— эффективнее использует данные для обучения
— проще в развёртывании и масштабировании благодаря монолитной архитектуре
Построен на базеM Qwen3-1.7B и Qwen3-8B
Не знаю зачем они дают ссылку на OpenVLM Video Leaderboard когда их модели там нет.
Кстати весь топ оккупировали InternVL3 и Qwen2.5-VL
Код
HF
#vlm
Cемейство нативных vision-language моделей (VLM), объединяет изображения и текст в едином семантическом пространстве
В отличие от аналогов, NEO1_0:
— лучше справляется с унификацией визуальных и лингвистических свойств
— эффективнее использует данные для обучения
— проще в развёртывании и масштабировании благодаря монолитной архитектуре
Построен на базеM Qwen3-1.7B и Qwen3-8B
Не знаю зачем они дают ссылку на OpenVLM Video Leaderboard когда их модели там нет.
Кстати весь топ оккупировали InternVL3 и Qwen2.5-VL
Код
HF
#vlm
❤2
Две новости которые должны улучшить нашу жизнь на N процентов
1. Вышел Python 3.14, , окрещённый в народе π-тоном
Самое главное, теперь можно работать без GIL (Global Interpreter Lock) – это глобальная блокировка интерпретатора, которая позволяет в каждый момент времени выполнять только один поток.
Вот вы знали что до сих пор питон не разрешал многопоточность? Теперь разрешает. А значит наши флешэтеншны с сейджами зашуршат еще быстрее
————————
2. Следом обновился Pytorch до версии 2.9
Ну там тоже навертели улучшений, теперь заживём если не поломаются все зависимости, все воркфлоу и Комфи не помрет
#news #coding
1. Вышел Python 3.14, , окрещённый в народе π-тоном
Самое главное, теперь можно работать без GIL (Global Interpreter Lock) – это глобальная блокировка интерпретатора, которая позволяет в каждый момент времени выполнять только один поток.
Вот вы знали что до сих пор питон не разрешал многопоточность? Теперь разрешает. А значит наши флешэтеншны с сейджами зашуршат еще быстрее
————————
2. Следом обновился Pytorch до версии 2.9
Ну там тоже навертели улучшений, теперь заживём если не поломаются все зависимости, все воркфлоу и Комфи не помрет
#news #coding
GitHub
python-experiments/free-threading at main · koenvo/python-experiments
My Python Experiments collection. Contribute to koenvo/python-experiments development by creating an account on GitHub.
🔥9😁2❤1👍1🌚1