Media is too big
VIEW IN TELEGRAM
#ЛабораторияИИ #unrealneural
Видеогенерация Midjourney
Супрематические пространства в духе Малевича и Лисицкого
Видеогенерация Midjourney
Супрематические пространства в духе Малевича и Лисицкого
#unrealneural #вкопилкуэрудита
Context-INFORMED Grounding Supervision (CINGS)
Обучение LLM с CINGS значительно повышает способности заземлять как в текстовых, так и в мультимодальных языковых моделях по сравнению со стандартной настройкой инструкций.
*Заземление модели (model grounding) — это процесс связывания предсказаний или представлений, которые создаёт модель искусственного интеллекта, с реальными объектами, событиями или концепциями в физическом или семантическом мире. Другими словами, это способ обеспечить, чтобы модель не просто оперировала абстрактными данными, а могла соотносить свои выводы с конкретными сущностями или контекстом в реальной среде.
Примеры:
- В задачах компьютерного зрения, таких как распознавание объектов, заземление означает, что модель не просто классифицирует изображение как «собака», а связывает это понятие с конкретным объектом на изображении (например, указывает, где именно на картинке находится собака).
- В обработке естественного языка (NLP) заземление может означать привязку слов или фраз к реальным сущностям (например, слово «Эйфелева башня» связывается с конкретным объектом в реальном мире).
https://arxiv.org/pdf/2506.15480
Context-INFORMED Grounding Supervision (CINGS)
Обучение LLM с CINGS значительно повышает способности заземлять как в текстовых, так и в мультимодальных языковых моделях по сравнению со стандартной настройкой инструкций.
*Заземление модели (model grounding) — это процесс связывания предсказаний или представлений, которые создаёт модель искусственного интеллекта, с реальными объектами, событиями или концепциями в физическом или семантическом мире. Другими словами, это способ обеспечить, чтобы модель не просто оперировала абстрактными данными, а могла соотносить свои выводы с конкретными сущностями или контекстом в реальной среде.
Примеры:
- В задачах компьютерного зрения, таких как распознавание объектов, заземление означает, что модель не просто классифицирует изображение как «собака», а связывает это понятие с конкретным объектом на изображении (например, указывает, где именно на картинке находится собака).
- В обработке естественного языка (NLP) заземление может означать привязку слов или фраз к реальным сущностям (например, слово «Эйфелева башня» связывается с конкретным объектом в реальном мире).
https://arxiv.org/pdf/2506.15480
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Graph-Code — это графовая RAG-система.
Он анализирует кодовую базу Python и создает графы знаний, позволяющие выполнять запросы на естественном языке.
Основные характеристики:
- Глубокий анализ кода для извлечения классов, функций и связей.
- Использует Memgraph для хранения кодовой базы в виде графа.
- Анализирует pyproject для понимания внешних зависимостей.
- Извлекает фактические фрагменты исходного кода для найденных функций.
Graph-Code — это графовая RAG-система.
Он анализирует кодовую базу Python и создает графы знаний, позволяющие выполнять запросы на естественном языке.
Основные характеристики:
- Глубокий анализ кода для извлечения классов, функций и связей.
- Использует Memgraph для хранения кодовой базы в виде графа.
- Анализирует pyproject для понимания внешних зависимостей.
- Извлекает фактические фрагменты исходного кода для найденных функций.
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
MIDI: Диффузия с несколькими экзомплями для генерации одного изображения в 3D-сцены
- Сегментация сцены на объекты
- Многовидовая диффузия на каждом объекте
- В результате генерирует высококачественную 3D-сцену, состоящую из частей
MIDI: Диффузия с несколькими экзомплями для генерации одного изображения в 3D-сцены
- Сегментация сцены на объекты
- Многовидовая диффузия на каждом объекте
- В результате генерирует высококачественную 3D-сцену, состоящую из частей
Forwarded from Data Secrets
Китайский стартап выпустил Deep Research агента, который лучше аналогов от OpenAI и Google
Kimi.ai – не новый стартап, и он уже радовал нас несколькими приятными релизами. Но такой прорыв у них в первый раз.
Взгляните на метрики: их агент Kimi-Researcher занимает лидирующие позиции на всех бенчмарках, включая известный Humanity’s Last Exam.
Говорят, для одной задачи агент в среднем делает 23 ризонинг-шага и параллельно исследует более 200 URL.
За основу взята собственная модель стартапа k 1.5, которую end-to-end дообучали с помощью обучения с подкреплением. При этом потребовалось минимум размеченных данных, потому что выдача награды была, в основном, автоматизирована. Отдельно тюнили умение использовать инструменты (там кстати, подкручены MCP).
Все подробности о данных, подходах в обучении и строении инфраструктуры исследователи подробно расписали в блогпосте.
Попробовать агента скоро можно будет здесь. Если хотите получить ранний доступ, лучше записаться в лист ожидания
Умеют удивлять
Kimi.ai – не новый стартап, и он уже радовал нас несколькими приятными релизами. Но такой прорыв у них в первый раз.
Взгляните на метрики: их агент Kimi-Researcher занимает лидирующие позиции на всех бенчмарках, включая известный Humanity’s Last Exam.
Говорят, для одной задачи агент в среднем делает 23 ризонинг-шага и параллельно исследует более 200 URL.
За основу взята собственная модель стартапа k 1.5, которую end-to-end дообучали с помощью обучения с подкреплением. При этом потребовалось минимум размеченных данных, потому что выдача награды была, в основном, автоматизирована. Отдельно тюнили умение использовать инструменты (там кстати, подкручены MCP).
Все подробности о данных, подходах в обучении и строении инфраструктуры исследователи подробно расписали в блогпосте.
Попробовать агента скоро можно будет здесь. Если хотите получить ранний доступ, лучше записаться в лист ожидания
Умеют удивлять
#вкопилкуэрудита
Теорема универсальной аппроксимации
Теорема гласит, что нейронная сеть с одним скрытым слоем, содержащим достаточно большое количество нейронов, и использующая нелинейную функцию активации (например, сигмоиду, ReLU или гиперболический тангенс), может с любой заданной точностью аппроксимировать любую непрерывную функцию, определённую на компактном подмножестве, при условии, что параметры сети (веса и смещения) выбраны подходящим образом.
- Теорема даёт уверенность, что нейронные сети способны решать сложные задачи, если правильно настроить их архитектуру и параметры.
- Она объясняет, почему нейронные сети могут адаптироваться к разнообразным задачам, от регрессии до генерации данных.
- Хотя теорема гарантирует существование аппроксимирующей сети, она не говорит, как найти оптимальные веса или сколько нейронов нужно.
Теорема универсальной аппроксимации
Теорема гласит, что нейронная сеть с одним скрытым слоем, содержащим достаточно большое количество нейронов, и использующая нелинейную функцию активации (например, сигмоиду, ReLU или гиперболический тангенс), может с любой заданной точностью аппроксимировать любую непрерывную функцию, определённую на компактном подмножестве, при условии, что параметры сети (веса и смещения) выбраны подходящим образом.
- Теорема даёт уверенность, что нейронные сети способны решать сложные задачи, если правильно настроить их архитектуру и параметры.
- Она объясняет, почему нейронные сети могут адаптироваться к разнообразным задачам, от регрессии до генерации данных.
- Хотя теорема гарантирует существование аппроксимирующей сети, она не говорит, как найти оптимальные веса или сколько нейронов нужно.
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Еще один пример завораживающего вайб-кодинга 🥹
Еще один пример завораживающего вайб-кодинга 🥹
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
RLT: Reinforcement-Learned Teachers
Новый подход к обучению студентов магистратуры права ( это модели ИИ 🙂) рассуждению с помощью RL.
RLT — модели (7B параметров), которые генерируют понятные пошаговые объяснения, обучая студентов ИИ. Они превосходят крупные LLM в задачах конкурентного мышления и холодного запуска, эффективно работая даже с 32B-студентами. Новый стандарт для компактных моделей рассуждения с RL!
arxiv.org/abs/2506.08388
RLT: Reinforcement-Learned Teachers
Новый подход к обучению студентов магистратуры права ( это модели ИИ 🙂) рассуждению с помощью RL.
RLT — модели (7B параметров), которые генерируют понятные пошаговые объяснения, обучая студентов ИИ. Они превосходят крупные LLM в задачах конкурентного мышления и холодного запуска, эффективно работая даже с 32B-студентами. Новый стандарт для компактных моделей рассуждения с RL!
arxiv.org/abs/2506.08388
Forwarded from ИИ и роботы в стройке
This media is not supported in your browser
VIEW IN TELEGRAM
И снова — работа студента курса по параметрическому проектированию с помощью ИИ лондонского бюро Studio Tim Fu (STF). Еще и с кодом.
Красиво🟣
Красиво
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Secrets
В Cursor появился MCP Hugging Face
Это значит, что теперь HF можно в два клика подсоединить к вашему проекту, и агент будет на лету искать и прикручивать подходящие вам датасеты, модели или готовые приложения. А еще сможет пользоваться научными статьями (ну вдруг пригодится).
Очень приятное обновление, сразу захотелось потестить
Это значит, что теперь HF можно в два клика подсоединить к вашему проекту, и агент будет на лету искать и прикручивать подходящие вам датасеты, модели или готовые приложения. А еще сможет пользоваться научными статьями (ну вдруг пригодится).
Очень приятное обновление, сразу захотелось потестить
#unrealneural
EvoLM: в поисках динамики обучения модели утраченного языка
«Мы представляем EvoLM, набор моделей, который позволяет проводить систематический и прозрачный анализ динамики обучения LM на этапе предварительного обучения, непрерывного предварительного обучения, контролируемой тонкой настройки и обучения с подкреплением. Обучая более 100 LM с параметрами 1B и 4B с нуля, мы строго оцениваем как восходящие (моделирование языка), так и нисходящие (решение проблем) способности к рассуждению, включая рассмотрение как внутридоменного, так и внедоменного обобщения».
https://arxiv.org/abs/2506.16029
EvoLM: в поисках динамики обучения модели утраченного языка
«Мы представляем EvoLM, набор моделей, который позволяет проводить систематический и прозрачный анализ динамики обучения LM на этапе предварительного обучения, непрерывного предварительного обучения, контролируемой тонкой настройки и обучения с подкреплением. Обучая более 100 LM с параметрами 1B и 4B с нуля, мы строго оцениваем как восходящие (моделирование языка), так и нисходящие (решение проблем) способности к рассуждению, включая рассмотрение как внутридоменного, так и внедоменного обобщения».
https://arxiv.org/abs/2506.16029
Forwarded from ЗВОНАРЁВА.ОНЛАЙН
Жизнь прекрасная штука), только недавно в Питере познакомлились с Артуром Ишмаевым, лаборатория ИИ ПИК .
А сегодня уже вместе на одном шикарнейшем мероприятии, которое проходит в Москве на пощадке АНО "Среда возможностей ".
Артур делится наработками лаборатории ИИ ПИК.
С нами и Андрей Лупий, АНО "Агентство Цифрового развития"
В зале большое количестао представителей самых различных органов исполнителтной власти Москвы.
А сегодня уже вместе на одном шикарнейшем мероприятии, которое проходит в Москве на пощадке АНО "Среда возможностей ".
Артур делится наработками лаборатории ИИ ПИК.
С нами и Андрей Лупий, АНО "Агентство Цифрового развития"
В зале большое количестао представителей самых различных органов исполнителтной власти Москвы.
#пытаюсьпонять
Cвёрточные сети больше не нужны?
Современные мультимодальные модели, такие как ViT, CLIP и DALL·E, предпочитают трансформеры свёрточным сетям (CNN). Механизм внимания трансформеров лучше улавливает глобальные зависимости в данных (текст, изображения, аудио), чем локальные фильтры свёрток. Трансформеры обрабатывают данные как последовательности (патчи или токены), что идеально для мультимодальности, и превосходно масштабируются на больших датасетах.
Однако свёртки не исчезнут, но станут нишевым инструментом. Они будут применяться в энергоэффективных системах и задачах с локальной структурой данных. Гибридные модели, сочетающие свёртки и трансформеры, усилят? (подкрепят) их роль.
Cвёрточные сети больше не нужны?
Современные мультимодальные модели, такие как ViT, CLIP и DALL·E, предпочитают трансформеры свёрточным сетям (CNN). Механизм внимания трансформеров лучше улавливает глобальные зависимости в данных (текст, изображения, аудио), чем локальные фильтры свёрток. Трансформеры обрабатывают данные как последовательности (патчи или токены), что идеально для мультимодальности, и превосходно масштабируются на больших датасетах.
Однако свёртки не исчезнут, но станут нишевым инструментом. Они будут применяться в энергоэффективных системах и задачах с локальной структурой данных. Гибридные модели, сочетающие свёртки и трансформеры, усилят? (подкрепят) их роль.
Forwarded from ИИ и роботы в стройке
Please open Telegram to view this post
VIEW IN TELEGRAM
Возник такой вопрос: почему до сих пор в ответах ChatGPT и других моделей нет рекламы 🤔? Или она есть, но мы ее не замечаем?
Anonymous Poll
19%
не будет рекламы
62%
будет добавлена незаметно
19%
другое