Telegram Group Search
Media is too big
VIEW IN TELEGRAM
#ЛабораторияИИ #unrealneural
Видеогенерация Midjourney
Супрематические небоскребы в духе Лисицкого
Media is too big
VIEW IN TELEGRAM
#ЛабораторияИИ #unrealneural
Видеогенерация Midjourney
Супрематические пространства в духе Малевича и Лисицкого
#unrealneural #вкопилкуэрудита
Context-INFORMED Grounding Supervision (CINGS)

Обучение LLM с CINGS значительно повышает способности заземлять как в текстовых, так и в мультимодальных языковых моделях по сравнению со стандартной настройкой инструкций.

*Заземление модели (model grounding) — это процесс связывания предсказаний или представлений, которые создаёт модель искусственного интеллекта, с реальными объектами, событиями или концепциями в физическом или семантическом мире. Другими словами, это способ обеспечить, чтобы модель не просто оперировала абстрактными данными, а могла соотносить свои выводы с конкретными сущностями или контекстом в реальной среде.

Примеры:

- В задачах компьютерного зрения, таких как распознавание объектов, заземление означает, что модель не просто классифицирует изображение как «собака», а связывает это понятие с конкретным объектом на изображении (например, указывает, где именно на картинке находится собака).

- В обработке естественного языка (NLP) заземление может означать привязку слов или фраз к реальным сущностям (например, слово «Эйфелева башня» связывается с конкретным объектом в реальном мире).

https://arxiv.org/pdf/2506.15480
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural

Graph-Code — это графовая RAG-система.

Он анализирует кодовую базу Python и создает графы знаний, позволяющие выполнять запросы на естественном языке.

Основные характеристики:
- Глубокий анализ кода для извлечения классов, функций и связей.
- Использует Memgraph для хранения кодовой базы в виде графа.
- Анализирует pyproject для понимания внешних зависимостей.
- Извлекает фактические фрагменты исходного кода для найденных функций.
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural

MIDI: Диффузия с несколькими экзомплями для генерации одного изображения в 3D-сцены
- Сегментация сцены на объекты
- Многовидовая диффузия на каждом объекте
- В результате генерирует высококачественную 3D-сцену, состоящую из частей
Forwarded from Data Secrets
Китайский стартап выпустил Deep Research агента, который лучше аналогов от OpenAI и Google

Kimi.ai – не новый стартап, и он уже радовал нас несколькими приятными релизами. Но такой прорыв у них в первый раз.

Взгляните на метрики: их агент Kimi-Researcher занимает лидирующие позиции на всех бенчмарках, включая известный Humanity’s Last Exam.

Говорят, для одной задачи агент в среднем делает 23 ризонинг-шага и параллельно исследует более 200 URL.

За основу взята собственная модель стартапа k 1.5, которую end-to-end дообучали с помощью обучения с подкреплением. При этом потребовалось минимум размеченных данных, потому что выдача награды была, в основном, автоматизирована. Отдельно тюнили умение использовать инструменты (там кстати, подкручены MCP).

Все подробности о данных, подходах в обучении и строении инфраструктуры исследователи подробно расписали в блогпосте.

Попробовать агента скоро можно будет здесь. Если хотите получить ранний доступ, лучше записаться в лист ожидания

Умеют удивлять
#вкопилкуэрудита
Теорема универсальной аппроксимации

Теорема гласит, что нейронная сеть с одним скрытым слоем, содержащим достаточно большое количество нейронов, и использующая нелинейную функцию активации (например, сигмоиду, ReLU или гиперболический тангенс), может с любой заданной точностью аппроксимировать любую непрерывную функцию, определённую на компактном подмножестве, при условии, что параметры сети (веса и смещения) выбраны подходящим образом.

- Теорема даёт уверенность, что нейронные сети способны решать сложные задачи, если правильно настроить их архитектуру и параметры.
- Она объясняет, почему нейронные сети могут адаптироваться к разнообразным задачам, от регрессии до генерации данных.
- Хотя теорема гарантирует существование аппроксимирующей сети, она не говорит, как найти оптимальные веса или сколько нейронов нужно.
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Еще один пример завораживающего вайб-кодинга 🥹
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
RLT: Reinforcement-Learned Teachers
Новый подход к обучению студентов магистратуры права ( это модели ИИ 🙂) рассуждению с помощью RL.

RLT — модели (7B параметров), которые генерируют понятные пошаговые объяснения, обучая студентов ИИ. Они превосходят крупные LLM в задачах конкурентного мышления и холодного запуска, эффективно работая даже с 32B-студентами. Новый стандарт для компактных моделей рассуждения с RL!

arxiv.org/abs/2506.08388
This media is not supported in your browser
VIEW IN TELEGRAM
И снова работа студента курса по параметрическому проектированию с помощью ИИ лондонского бюро Studio Tim Fu (STF). Еще и с кодом.

Красиво🟣
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Secrets
В Cursor появился MCP Hugging Face

Это значит, что теперь HF можно в два клика подсоединить к вашему проекту, и агент будет на лету искать и прикручивать подходящие вам датасеты, модели или готовые приложения. А еще сможет пользоваться научными статьями (ну вдруг пригодится).

Очень приятное обновление, сразу захотелось потестить
🤗
#unrealneural
EvoLM: в поисках динамики обучения модели утраченного языка

«Мы представляем EvoLM, набор моделей, который позволяет проводить систематический и прозрачный анализ динамики обучения LM на этапе предварительного обучения, непрерывного предварительного обучения, контролируемой тонкой настройки и обучения с подкреплением. Обучая более 100 LM с параметрами 1B и 4B с нуля, мы строго оцениваем как восходящие (моделирование языка), так и нисходящие (решение проблем) способности к рассуждению, включая рассмотрение как внутридоменного, так и внедоменного обобщения».

https://arxiv.org/abs/2506.16029
Жизнь прекрасная штука), только недавно в Питере познакомлились с   Артуром Ишмаевым,  лаборатория ИИ ПИК .
А сегодня уже вместе на одном шикарнейшем  мероприятии, которое проходит в Москве на пощадке АНО  "Среда возможностей ".
Артур делится наработками лаборатории ИИ ПИК.

С нами и Андрей Лупий, АНО "Агентство  Цифрового развития"
В зале большое количестао представителей самых различных органов исполнителтной власти Москвы.
#пытаюсьпонять
Cвёрточные сети больше не нужны?

Современные мультимодальные модели, такие как ViT, CLIP и DALL·E, предпочитают трансформеры свёрточным сетям (CNN). Механизм внимания трансформеров лучше улавливает глобальные зависимости в данных (текст, изображения, аудио), чем локальные фильтры свёрток. Трансформеры обрабатывают данные как последовательности (патчи или токены), что идеально для мультимодальности, и превосходно масштабируются на больших датасетах.

Однако свёртки не исчезнут, но станут нишевым инструментом. Они будут применяться в энергоэффективных системах и задачах с локальной структурой данных. Гибридные модели, сочетающие свёртки и трансформеры, усилят? (подкрепят) их роль.
Please open Telegram to view this post
VIEW IN TELEGRAM
Возник такой вопрос: почему до сих пор в ответах ChatGPT и других моделей нет рекламы 🤔? Или она есть, но мы ее не замечаем?
Anonymous Poll
19%
не будет рекламы
62%
будет добавлена незаметно
19%
другое
2025/06/25 03:49:15
Back to Top
HTML Embed Code: