Telegram Group Search
🧠 ИИ умеет мыслить стратегически?

Новое исследование Oxford и King’s College London поставило перед ИИ-моделями сложную задачу: сыграть тысячи раундов эволюционной версии "Дилеммы заключённого", где важно не просто ответить правильно, а выстроить стратегию в долгую.

В эксперименте участвовали флагманские модели от OpenAI, Google и Anthropic. Вот как они себя проявили:

🔹 Google Gemini — хладнокровный и расчётливый
Не доверяет, первым атакует, наказывает за предательство. Стратег чистой воды.

🔹 OpenAI GPT — слишком добрый
Склонен к сотрудничеству даже тогда, когда это невыгодно. Хорош в мире, уязвим в конфликте.

🔹 Anthropic Claude — гибкий и адаптивный
Умеет прощать, но делает выводы на основе опыта коммуникации. Меняет поведение со временем и часто приходит к победе.

Исследователи проанализировали 32,000 решений, и выяснили:
эти модели не просто "угадывают" слова — они делают выводы, оценивают риск, строят гипотезы о поведении противника и последовательно придерживаются своей стратегии.

Общее в поведении:
1. Модели справляются с новыми, непредсказуемыми оппонентами
2. Демонстрируют разные стратегии, несмотря на общий обучающий набор данных
3. Объясняют свои действия — в некоторых случаях с вероятностным анализом, ссылаясь на поведение соперников

Еще большинство моделей выбирает кооперацию — особенно против предсказуемых и простых стратегий соперника.

Каждая модель показала уникальный стиль поведения — почти как характер.

Если приводить аналогию с реальными личностями:
- Gemini = Генри Киссинджер
- OpenAI = Вудро Вильсон
- Anthropic = Джордж Буш-старший

Современные LLM практически ведут себя как полноценные стратеги: формулируют цели, оценивают оппонентов и формируют осторожные, но устойчивые пути к победе.

🔜 Подробности

@ai_machinelearning_big_data


#AI #ML #MMLM #research
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
56👍26🔥14😁8🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
NLP-специалисты, три главных слова для вас — One Day Offer!

12 июля сразу три команды Сбера станут на несколько талантливых коллег больше: AI Solutions для Управления Благосостоянием, блок Стратегии и развития в Москве, а также Центр перспективных AI-разработок в индустриях в Сочи.

Если и вы хотите обучать большие языковые модели, создавать агентные и мультиагентные системы и заниматься другими масштабными проектами — регистрируйтесь на One Day Offer по ссылке.

Ждём встречи и уже готовим для вас рабочее место! 😉
31🔥20🤣18👏7👍4
🌟 EX-4D: генерация видео с экстремальными движениями камеры.

EX-4D - совместная разработка ByteDance и Pico, которая предлагает элегантное решение проблемы генерации экстремальных ракурсов камеры для видео.

Методика позволяет генерировать видео с амплитудой угла камеры от -90° до 90°, опираясь на новый тип геометрического представления, Depth Watertight Mesh (DW-Mesh).

В отличие от стандартных методов, которые строят 3D-сцену только из видимых поверхностей, DW-Mesh создает трехмерный замкнутый меш на основе данных о глубине сцены.

Он моделирует не только то, что видит камера, но и пытается логически завершить скрытые от нее области. По сути, система строит цельный геометрический каркас сцены, который сохраняет свою форму даже при взгляде с самых неожиданных углов. Это предотвращает появление разрывов и искажений, когда ранее невидимая часть объекта попадает в кадр.

При создании EX-4D использовали уникальную стратегию обучения, которая не требует многоракурсных видеосетов. Разработчики обошли эту проблему, заставив модель создавать обучающие данные для самой себя.

Используя построенный DW-Mesh, система генерирует маски, симулируя, какие части сцены были бы скрыты при других ракурсах. Этот подход с двумя компонентами, Rendering Mask и Tracking Mask, имитирует реальные условия съемки с разных точек и дает временную согласованность маскировки, обучая модель правильно «додумывать» геометрию.

Вся эта система работает на базе видеомодели Wan2.1 (рекомендуют версию 14B 480p), но не требует ее полной перетренировки. Геометрическая информация от DW-Mesh интегрируется с помощью LoRA-адаптера, он выступает мостом между меш-каркасом и генеративной нейросетью.

В тестах EX-4D обходит TrajectoryCrafter и ReCamMaster, особенно на больших углах. В пользовательских тестах 70 % участников отдали предпочтение видео, сгенерированным EX-4D, отметив физическую консистентность и высокое качество картинки.

⚠️ Локальный запуск потребует значительных ресурсов, особенно для видео высокого разрешения. Помимо Wan2.1, самой EX-4D, еще понадобятся пакеты nvdiffrast от NVlabs и DepthCrafter от Tencent.

В планах: оптимизация инференса, поддержка 1К и 2К разрешения и новые техники уточнения мешей.


📌Лицензирование: Apache 2.0 License.


🟡Страница проекта
🟡Модель
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #EX4D #ByteDance #Video
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
81👍50🔥33😁1
🧠 Hugging Face представили SmolLM-3B — компактную и мощную open-source LLM на 3 млрд параметров, которая работает *прямо на ноутбуке*.

📦 Особенности:
• Тренирована на 1T токенов (RefinedWeb + книги + код + академические тексты)
• Обгоняет Mistral-7B и LLaMA-3 8B на многих задачах
• Работает в GGUF, поддерживается LM Studio, Ollama, LM Deploy и др.

💡 Зачем это нужно?
SmolLM — не про SOTA, а про локальные сценарии: быстрый запуск, приватность, низкие требования к железу.

📁 Репозиторий и демо:
https://huggingface.co/blog/smollm3

@data_analysis_ml
59👍38🔥15👌1🥱1
🧠 Учёные разработали мозговой интерфейс, который переводит мысли в речь с интонацией

Свежая статья в *Nature* описывает, как человек с параличом получил голос благодаря нейроимпланту.

Устройство считывает активность мозга и синтезирует речь со скоростью 40–60 слов/мин и точностью воспроизведения более 60 %.

📍 Как это работает:
— В мозг имплантированы 256 микродатчиков в вентральную двигательную префронтальную извилину — зону, отвечающую за речь
— Нейросеть расшифровывает активность речевой зоны
— Голос синтезируется мгновенно (~25 мс задержки)
— Человек *слышит* свой голос и может менять интонацию, задавать вопросы и даже петь

💬 Важно:
Это не просто текст. Это живая речь с эмоциями, восстановленная у человека, полностью утратившего возможность говорить.

Перспективная технология для всех, кто потерял голос.


📌 Полная статья

@ai_machinelearning_big_data

#ml #ai #brain #nature
144👍57🔥35😨9😁52🤔2🤨2
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft, OpenAI и Anthropic запускают центр обучения ИИ для американских учителей.

Ведущие ИИ-компании в партнерстве с Американской федерацией учителей создают Национальную академию по обучению искусственному интеллекту. В рамках инициативы стоимостью 22.5 миллиона долларов преподавателям от детского сада до старших классов предоставят бесплатные программы для интеграции ИИ в учебный процесс.

Проект стал ответом на стихийное распространение чат-ботов в школах, которое вызвало у педагогов опасения по поводу списывания и снижения качества обучения. Вместо запретов, технологические гиганты предлагают обучать учителей ответственному использованию новых инструментов, попутно формируя лояльность к своим продуктам у будущих пользователей.
wired.com

✔️ Нейросеть нового поколения с архитектурой, подобной мозгу, учится видеть как люди.

All-TNN - нейросеть, структура которой имитирует организацию нейронов в человеческом мозге. В отличие от традиционных CNN, которые отлично распознают текстуры, но плохо справляются с формами, All-TNN демонстрирует смещения, характерные для людей. Например, она «ожидает» увидеть самолет в верхней части изображения, а не в нижней.

Ключевое отличие - отказ от weight sharing, неестественного для биологических систем. Вместо этого каждый нейрон обучается индивидуально, но со сглаживающим ограничением, которое заставляет соседние нейроны учиться схожим признакам.

Несмотря на то, что All-TNN пока уступает CNN в точности классификации, она потребляет в 10 раз меньше энергии при 13х большем размере.
spectrum.ieee.org

✔️ Replit заключила стратегическое партнерство с Microsoft.

По соглашению, Replit станет доступен в магазине Azure и будет интегрирован с облачными сервисами Microsoft, включая контейнеры, виртуальные машины и базу данных Neon Serverless Postgres. Компании позиционируют совместное предложение как инструмент для быстрого прототипирования, ориентированный не только на программистов, но и на бизнес-пользователей без опыта в кодинге.

Это событие примечательно, поскольку Replit традиционно считалась одним из ключевых клиентов и партнеров Google Cloud, где размещались созданные на платформе приложения. Replit подтвердил, что компания не уходит от Google, а расширяет поддержку на экосистему Microsoft, становясь мультиоблачным решением. Для Microsoft это партнерство - способ привлечь на свою платформу разработчиков и проекты, ранее ориентированные на конкурента.
prnewswire.com

✔️ Moonvalley представила видеомодель Marey.

Moonvalley, основанная выходцами из DeepMind, открыла публичный доступ к своей модели для генерации видео Marey, которая была обучена исключительно на открыто лицензированных данных. Решение позиционируется как инструмент для «гибридного кинопроизводства», предлагая кинопродакшену значительно больше контроля, чем стандартные text-to-video модели.

Модель отличается «осведомленностью о 3D-пространстве» и возможностью свободного управления виртуальной камерой. Пользователи могут в реальном времени изменять траекторию, панорамировать и масштабировать изображение простым движением мыши. Marey также позволяет контролировать объекты, персонажей и менять фон в исходном видео.

Доступ к Marey, способной генерировать ролики до 5 секунд, предоставляется по платной подписке - $14,99 за 100 кредитов, $34,99 за 250 кредитов и $149,99 за 1000 кредитов.
techcrunch.com

✔️ Компания Марка Цукрберга купила долю в производителе умных очков.

Техгигант приобрел миноритарную долю в EssilorLuxottica, крупнейшем в мире производителе очков и владельце бренда Ray-Ban. Сумма сделки составила 3,5 млрд. долларов за пакет акций размером менее 3%. Сделка значительно углубляет партнерство двух компаний, которые уже совместно выпускают умные очки Ray-Ban.

Для Марка Цукерберга это стратегический шаг в рамках его масштабного плана по развитию ИИ и созданию собственных аппаратных платформ. Умные очки рассматриваются как ключевое устройство будущего, которое избавит от привязки к смартфонам конкурентов, Apple и Google.
bloomberg.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7835🔥20🥰5👌1🥱1
VGGT: Visual Geometry Grounded Transformer

Долгие годы создание трехмерных моделей из набора фотографий было уделом сложных и медленных алгоритмов вроде Structure-from-Motion. Этот процесс напоминает многоэтапный конвейер: найти ключевые точки, сопоставить их между кадрами, триангулировать, а затем долго и мучительно оптимизировать геометрию всей сцены.

Инженеры из компании Марка Цукерберга и Оксфордского университета решили, что пришло время отдать всю эту работу одной нейросети. И, кажется, у них получилось.

Их разработка, VGGT (Visual Geometry Grounded Transformer), и это, по сути, первая настоящая фундаментальная модель для 3D-реконструкции.

Она не просто ускоряет старые процессы, а полностью меняет парадигму, превращая сложный многоступенчатый пайплайн в вызов одной функции. Вы просто скармливаете ему от одной до сотен фотографий, а модель за несколько секунд выдает полный набор 3D-атрибутов: точные параметры каждой камеры, карты глубины, плотное облако точек и даже траектории движения точек по всей последовательности изображений.

И все это за один проход, без какой-либо итеративной оптимизации.

Под капотом у VGGT - трансформер на 1.2 миллиарда параметров с механизмом попеременного внимания. Модель то «всматривается» в детали каждого отдельного кадра, то «окидывает взглядом» всю сцену целиком, анализируя связи между разными ракурсами. Это позволяет ей одновременно понимать и локальный контекст, и глобальную геометрию.

Даже в «сыром» виде, без постобработки, VGGT опережает DUSt3R и MASt3R: 0.2 секунды против почти 10 секунд. Но самое интересное начинается, когда на выходные данные VGGT «накладывают» быструю классическую оптимизацию Bundle Adjustment. Этот гибридный подход бьет все рекорды, устанавливая новый стандарт качества в задачах оценки поз камер и реконструкции.

⚠️ На одной H100 с Flash Attention 3 обработка 1 входного изображения занимает 0.04 сек при потреблении VRAM 1.88 ГБ, 10 изображений - 0.14 сек и 3.63 ГБ, 50-ти - всего 1.04 сек при 11.41 Гб, а 200 изображений - 8.57 сек с 40.63 Гб.


📌Лицензирование: CC-BY-NC-4.0 License.


🟡Страница проекта
🟡Модель
🟡Arxiv
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Transformer #3DRecon #VGGT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5330👍27🌚2🤬1
🤖 Reachy Mini — первый доступный робот от Hugging face

Reachy Mini — это выразительный и полностью open-source робот, созданный для взаимодействия с человеком, коммуникации и экспериментов с ИИ.

🧠 Что делает его особенным?
- Все ПО открыто и написано на Python, а скоро будет достнуо — и на JavaScript и Scratch
- Базовая версия стоит $299, еще доступна wireless-версия за $449
- Открытая архитектура и SDK — идеален для экспериментов с LLM, аудио- и визуальными агентами

С ним можно разрабатывать, тестировать, запускать и делиться реальными ИИ-приложениями — на базе современных LLM-моделей.

Технические характеристики

- Высота: 28 см, в режиме сна — 23 см
- Ширина: 16 см, вес: 1.5 кг
- Поставляется в виде конструктора:
- Lite-версия — базовый функционал
- Полноценная версия — автономная версия с Raspberry 5 внутри, встроенным питанием, Wi‑Fi, микрофонами и камерой

🎤 Датчики и интерфейсы
- Микрофоны: Lite — 2, Wireless — 4 встроенных микрофонов
hyper.ai
- Камера: широкоугольная фронтальная камера (в wireless-версии)
- Акселерометр: встроен в Wireless-версию

🔗 Подробнее: http://hf.co/blog/reachy-mini

@ai_machinelearning_big_data

#huggingface #Reachy #opensource #Python
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
42🔥33👍23🤔6👏3🙈2😁1
Как перестроить найм, если резюме есть, а толку нет

Откликов много, но нанимать всё сложнее.
Дипломы, опыт “от 3 лет” и красивые должности в резюме давно не говорят о том, справится ли человек с задачами.
Компании всё чаще ищут не людей, а навыки. И правильно делают!

📌 hh выпустили гайд, который поможет выстроить найм вокруг реальных умений, а не формальностей.

Что внутри:
• как составить профиль навыков под конкретную роль
• как переписать вакансию под задачи, а не “обязанности и требования”
• как внедрить тесты, кейсы и интервью по компетенциям
• как отсекать неподходящих ещё на входе — по подтвержденным скиллам
• как выстроить рост и обучение внутри команды — точечно, под дефицит
• как использовать карьерные маршруты и мотивацию через развитие
• как автоматизировать скрининг и сделать найм быстрее и точнее

Если вы хоть раз злились на воронку из “красивых” резюме без результата, загляните в гайд.
Там прям по шагам, как перестать собеседовать не тех. Сэкономит вам кучу времени и нервов.
🤣26🤬119🔥2💔2🥰1🗿1
🌟 NXTscape: браузер с локальными ИИ-агентами для Mac.

NXTscape - опенсорсный браузер для Mac OS на базе Chromium, где ИИ-агенты работают у вас на устройстве, а не в облаке ИТ-гигантов.

Самое важное: ключи API, история и данные никогда не покидают локальную систему. Подключаете OpenAI, Anthropic или локальные модели через Ollama и автоматизируете рутину действий в интернете.

Проект прост в переходе с Chrome: миграция занимает пару кликов, все расширения работают, его код открыт, можно форкнуть или проверить каждую строчку.

В планах на будущее: MCP Store, магазин ИИ-агентов, в нем обещают запуск прямо из адресной строки. Плюс встроенный ИИ-блокировщик рекламы, который планируют сделать умнее аналогов.

Теперь ваши 70+ вкладок могут управляться агентами, а не вы ими, достаточно скачать стабильный релиз с Github.


📌Лицензирование: AGPL-3.0 License.


🟡Сообщество в Discord
🖥 GitHub


@ai_machinelearning_big_data

#AI #ML #Agents #Github #NXTscape
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3013🔥7🤔4🥰1
2025/07/09 16:56:23
Back to Top
HTML Embed Code: