Telegram Group Search
OpenAI представили агента-программиста Codex

Это облачный агент, способный выполнять множество задач параллельно. Из возможностей:

Может писать новые функции, отвечать на вопросы по коду, исправлять ошибки и предлагать pull request для ревью.

Каждая задача выполняется в отдельной облачной песочнице, предварительно загруженной вашим репозиторием.

Есть возможность настраивать поведение агента через файлы AGENTS. md.

Работает это все на модели Codex-1, основанной на o3. Пока раскатали только для Pro-аккаунтов, для Plus обещают скоро.

Пробуем тут: https://chatgpt.com/codex
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Стрим OpenAI без пасхалок – не стрим OpenAI 🪺
У Meta черная полоса

Ранее компания потерпела провал с релизом Llama-4, а сейчас стало известно, что откладывается выпуск модели Behemoth. Ее обещали как самую крупную из серии Llama 4 и должны были выпустить в этом месяце, но теперь неясно, увидим ли мы ее вообще.

Во-первых, руководство Meta осталось очень недовольно работой команды Llama, и теперь планирует «изменения в составе». К слову, уже на данных момент по собственному желанию из команды ушли 11 из 14 ключевых ученых, которые работали над ранними версиями Llama.

Во-вторых, Behemoth не соответствует заявленным метрикам. Цукерберг обещал, что когда модель выйдет, то на нескольких тестах побьет передовые LM от OpenAI, Google и Anthropic. Но теперь что-то пошло не так и из-за проблем с обучением Behemoth уже показывает себя не так обнадеживающе.

И это все после того, как Meta фактически обманули пользователей, выпустив на LMSYS не юзер-версию модели, а внутреннюю, затюненную специально под арену (подробнее об этой истории мы писали тут).

Ну в общем, F 😬
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Понедельник! Сейчас в ИИ-гонке затишье, но неделя обещает быть насыщенной. Чего ждем:

1. Gemini Ultra и проект Astra с ИИ-очками от Google. На этой неделе у них крупнейшая анонс-конференция в году, Google I/O. В прошлом году именно на этом мероприятии показали Gemini 1.5 Pro с контекстом в 1млн токенов и Gemini 1.5 Flash.

2. o3-pro или GPT-5. Почти наверняка OpenAI что-то припасли чтобы перетянуть на себя внимание от Google. Вчера некоторые пользователи даже заметили, что Альтман твитнул строку «4+1», но сейчас твит удален.

3. Grok-3.5, который Илон Маск обещает уже вторую неделю.
Ученые из Google и Кэмбриджа предложили вид модели, которая мыслит образами, а не текстом

Человек часто мыслит образами / картинками / схемами. Особенно, когда речь идет о каких-нибудь математических задачах или алгоритмах. Модельки пока так не умеют, у них весь ризонинг в тексте.

Но попытки научить LM чему-то похожему есть: вот сегодня как раз вышла статья под названием "Visual Planning: Let’s Think Only with Images". В ней исследователи научили модель проходить лабиринты, рассуждая при этом только картинками. Вот как это было:

1. Сначала модели показывали много-много картинок лабиринтов и учили ее предсказывать какой-нибудь любой возможный следующий шаг. Ну, например, подаем картинку агента, который стоит в клетке B. По этой картинке модель должна сгенерировать следующую, где агент стоит на любой из доступных соседних клеток.

2. Затем учили предсказывать уже не рандомный, а правильный следующий шаг. Здесь у нас уже RL (на предыдущем шаге был обычный файнтюнинг). За правильное действие выдаем награду +1, за неправильное 0, за недопустимое -5.

Модель проходит по нескольку картинок за эпизод, собирает награды и многократко обновляет свою политику. В итоге получаем ризонер, который умеет проходить лабиринты, рассуждая без текста.

Самое интересное: на всех тестах VP обходит даже продвинутый Gemini 2.5 Pro think, и не на пару процентов, а в полтора-два раза.

Вот бы с какой-нибудь сложной геометрией такое потестили

huggingface.co/papers/2505.11409
Воу: Microsoft сделали своего ИИ-ассистента Copilot VS Code опенсорсным

Код будет открыт под лицензией MIT. Разработчики говорят, что исторически VS Code имеет большую ценность именно как опенсорс проект, и они не хотят это терять.

https://code.visualstudio.com/blogs/2025/05/19/openSourceAIEditor
This media is not supported in your browser
VIEW IN TELEGRAM
В приложении NotebookLM теперь можно самому подключаться к сгенерированным подкастам

Приложение начинают раскатывать уже сегодня, скоро можно будет скачать. Туда добавили несколько новых фичей:

Сгенерированные по источникам ИИ-подкасты теперь можно будет скачивать и слушать оффлайн

Источники можно будет шерить напрямую из любых других приложений. Например: Смотрим видео в приложении YouTube -> Нажимаем "Поделиться" -> Выбираем NotebookLM -> Все, видео уже попало в источники

Ну и самое интересное: если вы слушаете подскаст онлайн, вы в любой момент можете тыкнуть "Join" и присоединиться к ИИ-ведущим как гость, чтобы задать вопрос, высказать мнение или что-то уточнить

🤌
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Стартап flowith выпустили ИИ-агента, который может работать без ограничения по времени и контексту

Более того: можно запускать неограниченное количество задач (в том числе отложенных) одновременно.

А еще внутри каждой задачи агент сам параллелится: например, может создать 39 суб-агентов и отправить их искать разную информацию в разные уголки интернета, а потом собрать все в один отчет.

Работать все может довольно долго и основательно: контекст каждой задачи – больше 10 миллионов токенов, а количество шагов ризонинга может достигать нескольких сотен или даже тысяч.

Попробовать можно тут (но сервер периодически лежит от нагрузки)

Manus moment 2.0
Через несколько часов начинается Google I/O. Пересказываем слухи о том, что покажут:

1. Несколько новых версий видео и фото генераторов (Veo, Imagen). Будут и быстрые+дешевые, и дорогие+медленные

2. Возможно, генератор видео со звуком

3. Новая версия Gemini с улучшенным ризонингом

Ждем 🍿
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Google показали на I/O много интересного. Собрали все в один пост:

Новая Veo-3. SOTA-моделька для генерации, которая может генерировать видео со звуками и голосами

Gemini 2.5 Flash с улучшенным ризонингом. Модель уже скакнула с пятой строчки арены на вторую и выбивает очень хорошие метрики на кодинге и математике. Учитывая цены это просто отличные результаты

Перевод речи в Google Meet в реальном времени с сохранением интонаций и голоса собеседника. Пока доступно только с английского на испанский, но обещают раскатать на больше языков

Gemini Ultra тоже вышла, но есть нюанс. Это не модель, а подписка. Стоит 250 долларов в месяц, в нее входит расширенный доступ ко всем моделям гугла, Veo-3, NotebookLM и другие плюшки типа хранилища и премиум ютуба. В общем, все подписки Google в одной

В Gemini 2.5 Pro добавили более глубокий режим рассуждений

Анонсировали облачного агента Jules для программирования. Подключается к GitHub, делает ПР, ревьюит, отвечает на вопросы и тд. Аналог Codex, но дешевле.

Вот как-то так. Неплохая получилась конференция
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Еще один очень занятный релиз от Google – диффузионная языковая модель Gemini Diffusion

Кратко, в чем суть: вместо генерации токенов один за одним здесь они генерируются в произвольном порядке. То есть берется исходная последовательность текста, затем токены в ней маскируются с определенной веростностью, а модель пытается их угадать (расшумляет, как в диффузии).

Это, во-первых, помогает существенно ускорять процесс. Такая Gemini может генерировать до 2000 токенов в секунду. Это раз в 10-15 быстрее, чем в среднем генерируют хорошо оптимизированные модели.

Во-вторых, в задачах типа математики такой подход к генерации может помочь модели быстро перебирать несколько вариантов решений и двигаться не обязательно последовательно, а в «удобном» порядке. Так что метрики сравнимы с предыдущим поколением моделей Google.

Попробовать пока можно только по запросу, но сам факт таких релизов от Google впечатляет
Mistral только что выпустили новую SOTA среди открытых моделей для программирования

В ней всего 24В параметров, но на SWE Bench она обходит все другие опенсорсные модели с большим отрывом. Среди закрытых тоже обгоняет конкурентов в своем весе: 46% против ~23 у GPT-4.1 и ~40 у Claude Haiku 3.5.

Веса здесь (Apache 2.0), плюс можно пользоваться в API (0.1$/M инпут и 0.3$/M аутпут).

Давно от Mistral не было слышно таких громких релизов 🥖
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
О, вы такое любите: в NotebookLM скоро добавят видео-обзоры

То есть модель будет генерировать презентацию + рассказ по любому вашему источнику: видео, ссылке, гитхабу, статье, документу и тд.

Пример того, как это будет выглядеть – наверху. Это Google сгенерировали видео-обзор на вчерашнюю Google I/O. Ну симпатично же, да?

Говорят, что юзерам фича станет доступна уже очень скоро, правда первое время – только на английском.
2025/05/22 04:33:37
Back to Top
HTML Embed Code: