Telegram Group Search
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ GitHub Copilot вводит плату за продвинутые запросы с 18 июня 2025 года.

GitHub объявил о начале тарификации премиум-запросов в Copilot для всех платных планов с 18 июня 2025 года. Теперь пользователи будут получать ежемесячный лимит таких запросов, а неиспользованные остатки сгорают в конце месяца.

Премиум-запросы требуются для работы с мощными моделями вроде GPT-4.5 или Claude Opus 4, где каждый запрос умножается на коэффициент сложности (GPT-4.5 «съедает» 50 единиц за раз). Для бесплатного тарифа доступ ограничен: 2000 автодополнений кода и 50 премиум-запросов в месяц, причем все чаты считаются как "премиум".

Платные планы предлагают неограниченный доступ к базовым моделям (GPT-4.1, GPT-4o), но дополнительные запросы сверх лимита обойдутся в $0.04 за штуку. Если лимит исчерпан, можно переключиться на базовые модели — правда, их скорость зависит от нагрузки.
github.com

✔️ OpenAI разрабатывает меры безопасности для биологических исследований с применением ИИ.

OpenAI предупредила, что ее будущие модели могут представлять повышенный риск создания биологического оружия. Чтобы предотвратить злоупотребления, OpenAI разрабатывает комплексную систему ограничений: обучение моделей игнорировать опасные запросы, автоматический мониторинг подозрительной активности, проверку экспертов и «Red Teams», тестирующие уязвимости.

Компания сотрудничает с лабораториями и правительствами, чтобы улучшить безопасность синтеза ДНК и создать системы раннего обнаружения патогенов. Для тех, кто работает с ИИ в научных целях, планируется отдельный доступ к мощным инструментам, при условии строгого контроля. В июле OpenAI проведет саммит по биозащите, чтобы объединить усилия государств и частного сектора в борьбе с новыми угрозами.
openai.com

✔️ Wix покупает вайбкодинг-платформу Base44 за $80 млн.

Wix, популярный конструктор сайтов, приобрел Base44 — платформу вайбкодинга, позволяющую создавать приложения через текстовые запросы. Сделка оценивается в $80 млн, с возможными доплатами до 2029 года в зависимости от роста пользователей или выручки.

Base44 останется независимой, сохранив текущие инструменты: управление базами данных, аутентификацию, облачное хранение и хостинг. Платформа, насчитывающая 40 тыс. пользователей, недавно добавила чат-бота на основе ИИ для упрощения разработки.
techradar.com

✔️ Google использует миллиарды видео с YouTube для обучения ИИ.

YouTube подтвердил, что Google использует его архив из 20 млрд. видео для тренировки ИИ-моделей, включая Veo 3. Компания утверждает, что задействует лишь часть контента, соблюдая договоры с авторами, но не уточняет деталей. Создатели, чьи ролики могут попадать в обучающие наборы, не могут отключить такую опцию.

Эксперты опасаются, что это создаст конфликт интересов: ИИ, обученный на их материалах, может конкурировать с самими авторами. Некоторые уже выразили недовольство, подчеркнув, что не знали о таком использовании своего контента.

При этом ежедневно на YouTube добавляется несколько десятков миллионов новых видео - это потенциальный «корм» для алгоритмов. Вопрос регулирования ИИ и защиты прав авторов остаётся открытым, хотя YouTube ссылается на прозрачность своих политик.
cnbc.com

✔️ MiniMax выпустила видеомодель Hailuo 02.

MiniMax, в рамках пятидневного марафона релизов "MiniMax Week" представила второе поколение видео-модели Hailuo 02, улучшенной за счет архитектуры NCR. Модель выросла в 3 раза по количеству параметров, при этом разработчики обещают улучшенное качество и разнообразие контента, но технические детали NCR пока не неизвестны.

Hailuo 02 справляется со сложными сценариями и по данным бенчмарка Artificial Analysis Video Arena она уступила только Bytedance Seedance, но обошла Google Veo 3.

Доступны 3 варианта генераций: 768p на 6/10 секунд и 1080p на 6 секунд. Цена в API за 6-секундный ролик в 768p — $0,28, а 1080p — $0,49. Модель доступна через веб-интерфейс, мобильное приложение или API.
mp.weixin.qq.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Вебинар Стэнфорда — Agentic AI: Эволюция использования языковых моделей

Стэнфорд выложил, пожалуй, лучший однострочный часовой разбор о том, как создавать ИИ-агентов.

📌 Видео
🛡️ Fault Tolerant Llama — обучение LLM в условиях экстремальной нестабильности, без чекпоинтов

Исследовательская команда продемонстрировала обучение языковой модели в условиях, приближённых к худшему сценарию: сотни имитированных отказов происходили каждые 15 секунд, а чекпоинты полностью отключены. Цель — проверить, как себя поведёт система с полной поддержкой fault-tolerance.

🧰 Что использовалось:

torchft — отказоустойчивая реализация DDP для PyTorch
torchtitan — фреймворк для масштабируемого обучения с параллелизмом
• Кластер от Crusoe Cloud: 300 GPU NVIDIA L40S
• Модель: LLaMA 3, 1B параметров

🏗️ Конфигурация:

• 30 узлов × 10 GPU = 30 изолированных replica-групп
• Внутригрупповая коммуникация: NCCL
• Межгрупповая: Gloo (быстрая переинициализация, важно для отказов)
• TorchFT координирует состояние с помощью глобального Lighthouse и локальных менеджеров

🔄 Восстановление без чекпоинтов:

Обычно сбой = загрузка чекпоинта.
Здесь: сбой = локальная перезагрузка группы, автоматическая синхронизация с другими группами.

Каждый возвращающийся узел получает актуальные веса через peer-to-peer от соседей и снова включается в обучение — без полной остановки, без потери прогресса.

📉 Результаты:

• Более 1200 успешных восстановлений
• Обучение остаётся стабильным, модель не деградирует
• Пики на графике — это просто "возвращенцы", не сбой всей системы

📦 Почему это важно:

✔️ Подходит для нестабильных сетей и распределённых сред
✔️ Убирает зависимость от чекпоинтов
✔️ Поддерживает гибкие конфигурации: TP, PP, DiLoCo и др.

📌 Подробнее
🧠 Можно ли предсказать успех идеи до её реализации? Да — с помощью LLM.

Исследование предлагает использовать языковые модели для оценки перспектив научных идей ещё до их реализации — и это серьёзно повышает эффективность исследований.

🔧 Как это работает:

• Построен бенчмарк из 1 585 пар идей (прошедших верификацию людьми) + 6 000 обучающих пар из конференц-статей
• Используется дообученный GPT-4.1 в связке с retrieval‑агентом
• Агент генерирует запросы, ищет статьи, суммирует полные работы и фильтрует по релевантности
• GPT-4.1 дообучается на исторических данных по успешности идей

📌 Дообученная LLM обходит экспертов:
64.4% точности против 48.9% у людей

📌 Система в целом достигает 77% точности
Она устойчива к поверхностным факторам: новизне идеи, сложности формулировки и т.д.

📌 Самое интересное:
Модель предсказывает успех неопубликованных, AI-сгенерированных идей с точностью 63.6%

🧠 Это не просто фильтрация мусора — это шаг к автоматическому прогнозированию научного прорыва.

Читать
📚 AutoTrain Advanced — обучение ML-моделей без кода. Hugging Face представили инструмент, который упрощает тонкую настройку моделей машинного обучения до нескольких кликов. Проект поддерживает широкий спектр задач — от классификации текста до дообучения LLM с техниками вроде SFT и DPO.

Система работает как в облаке через Spaces, так и локально — нужно лишь подготовить данные в правильном формате. Для запуска не требуется глубоких знаний ML: конфигурация описывается в YAML-файле, а обучение начинается одной командой.

🤖 GitHub

@machinelearning_interview
Media is too big
VIEW IN TELEGRAM
Hunyuan-GameCraft: интерактивная генерация динамичных игровых видео

Hunyuan-GameCraft — новая система, позволяющая создавать игровые видеоролики с высокой динамичностью и точным управлением.

• Единое представление управления
Объединяет нажатия клавиш и движения мыши в общее пространство камеры для плавных переходов
• Гибридная история-условная стратегия обучения
Расширяет видеопоследовательности авторегрессивно, сохраняя контекст сцены ✔️
• Дистилляция модели для реального времени
Сокращает вычислительные затраты без потери качества длительных роликов ⏱️
• Обширный датасет
Обучено на более чем 1 000 000 записей из 100+ AAA-игр и дообучено на синтетических данных 🎮

Результат: более реалистичные, согласованные во времени и управляемые видеоролики по сравнению с традиционными методами.

🔗 Подробнее: https://huggingface.co/papers/2506.17201
This media is not supported in your browser
VIEW IN TELEGRAM
🗣 11AI — новый голосовой ассистент от ElevenLabs

ElevenLabs представили 11AI — голосового помощника нового поколения на базе их модели озвучки Eleven v3.

🧠 Ассистент:
• Отвечает в реальном времени
• Говорит с живыми паузами и интонацией
• Поддерживает глубокий поиск через Perplexity
• Интегрируется с Notion, Slack и другими рабочими инструментами
• Позволяет выбрать один из 5000 голосов или загрузить свой

https://11.ai/

#neural #нейросети
📣 NVIDIA представили NVFP4 — новый 4-битный формат, который переопределяет экономику AI-инференса на базе архитектуры Blackwell.

Формат NVFP4 работает на тензорных ядрах 5-го поколения и сочетает:
• масштабирование по блокам в формате FP8 (4M3)
• масштабирование по тензору в формате FP32
Такой подход позволяет сохранять точность моделей при резком снижении объёма памяти и ускорении вычислений.

🔋 Преимущества:
• До 50× выше энергоэффективность
• Снижение стоимости владения (TCO)
• Повышенная производительность при масштабировании

📦 Поддержка уже реализована в:
• TensorRT Model Optimizer
• TensorRT-LLM
• Интегрируется в vllm project
• Поддержка также готовится доя lmsysorg

📌Blog : https://developer.nvidia.com/blog/introducing-nvfp4-for-efficient-and-accurate-low-precision-inference/
📌 HF: https://huggingface.co/collections/nvidia/model-optimizer-66aa84f7966b3150262481a4
This media is not supported in your browser
VIEW IN TELEGRAM
Уже пользовались GigaChat? Предлагаем принять участие в его разработке! 💻

Сбер приглашает на One Day Offer талантливых DL-инженеров в команду production-внедрения GigaChat.

С вас — понимание, как работают модели на уровне математики и аппаратуры, и желание оптимизировать работу LLM моделей, создавать инфраструктуру для нагрузок на кластеры и выводить новые архитектуры в промышленную среду.

С нас — интересные задачи, современное железо, график на выбор и классное IT-комьюнити.

Встречаемся 28 июня в 10:30, а потом, вполне возможно, и за соседним рабочим столом в офисе! Зарегистрироваться! 👌
🚦 premier — удобный инструмент для ограничения частоты вызовов в Python

Что это такое:
premier — это библиотека для контроля скорости вызовов функций в Python. Она помогает ограничить нагрузку на API, базу данных или любой другой ресурс, чтобы не получить отказ или блокировку.

📌 Возможности:
• Поддержка популярных алгоритмов: token bucket, fixed window, leaky bucket
• Работает как с обычными, так и с асинхронными функциями
• Поддерживает Redis и другие хранилища для распределённого ограничения
• Гибкая настройка: лимиты, ключи, длительность окна, своя логика
• Простое применение через декораторы

🧪 Пример:


from premier import throttler, ThrottleAlgo, RedisHandler

@throttler.fixed_window(quota=3, duration=5)
def request(url: str):
# максимум 3 вызова каждые 5 секунд
...

@throttler.token_bucket(quota=5, duration=60)
async def async_request(...):
# асинхронный токен-бакет
...


🔧 Где применить:
• Ограничение частоты запросов к внешним API
• Защита от перегрузки микросервисов
• Контроль доступа к ресурсам внутри приложения
• Настройка rate-limit в фоновом обработчике или очереди

Почему стоит попробовать:
premier — лёгкая, понятная и гибкая библиотека. Она упрощает внедрение rate limiting, особенно если нужно масштабироваться или работать в асинхронной среде.

Если строишь что-то распределённое или просто не хочешь случайно “положить” сервис из-за частых вызовов — premier отлично подойдёт.

📌 Github

@machinelearning_interview
2025/06/26 01:49:19
Back to Top
HTML Embed Code: