Telegram Group Search
⭐️ VS Code трансформируется в открытый ИИ-редактор!

Команда Visual Studio Code объявила о планах трансформировать VS Code в редактор с открытым исходным кодом для работы с ИИ.

В ближайшие недели команда Visual Studio Code планирует открыть исходный код расширения GitHub Copilot Chat и перенести ИИ-функции из расширения в основное ядро VS Code.

Конкуренция - двигатели прогресса! Где-то напряглась команда Cursor 🤓

🔗 Подробности: aka.ms/open-source-ai-editor

#VSCode #OpenSource #ИИ #Разработка #Сообщество
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
✔️ Nvidia презентовала NVLink Fusion.

Nvidia анонсировала технологию NVLink Fusion, открывающую доступ NVLink для сторонних разработчиков. Это позволит партнерам использовать собственные CPU и ИИ-ускорители в связке с решениями Nvidia на уровне серверной стойки. NVLink Fusion обеспечивает 14-кратное преимущество в пропускной способности по сравнению с PCIe и интегрируется через чиплеты, с ним масштабирование кластеров для решения ИИ-задач станет проще.

В экосистему вошли Marvell, MediaTek и разработчики ПО Cadence и Synopsys, предлагающие инструменты для проектирования. Fujitsu планирует соединить свои 144-ядерные процессоры Monaka с архитектурой Nvidia для создания энергоэффективных ИИ-систем.
По словам Nvidia, первые решения на базе NVLink Fusion уже доступны для внедрения.
tomshardware.com

✔️ Microsoft разрабатывает открытый протокол для ИИ-поиска на любом сайте.

NLWeb — открытый протокол, который позволяет внедрять чат-боты с поддержкой естественного языка на любые сайты. По словам техэксперта Microsoft, система дает разработчикам инструменты для создания персонализированных ИИ-сервисов за минуты. Вместо дорогого индексирования данных NLWeb использует RSS-фиды и векторные базы, подключая даже бюджетные LLM.

Основная цель разработки протокола — сайты получат собственные ИИ-решения без зависимости от внешних LLM-провайдеров.. Microsoft уже сотрудничает с TripAdvisor и Shopify, продвигая протокол как альтернативу индивидуальным сделкам с OpenAI.
theverge.com

✔️ Intel представила видеокарты Arc Pro B50 и B60.

На Computex 2025 Intel анонсировала линейку Arc Pro «Battlemage» на базе архитектуры Xe2 и 5 нм чипа BMG-G21. Младшая модель B50 с 16 ГБ памяти заточена под профессиональную визуализацию, а B60 с 24 ГБ — под задачи ИИ-инференса. Энергопотребление у B50 всего 70Вт, а у флагманской модели до 200Вт через 600 Вт разъем питания с 12V2x6-коннектором.
Проект Battlematrix позволяет объединить до 8 GPU с суммарным объёмом VRAM до 192 ГБ для работы с ИИ-моделями на 70+ млрд. параметров

Выпуском карт, которые поступят в продажу в 3 квартале 2025 года, займутся партнеры Intel: ASRock, Gunnir и Maxsun. По заявлениям Intel, новые решения уже прошли сертификацию в основных профессиональных приложениях.
techpowerup.com

✔️ LLM страдают от «английского акцента» в других языках.

Apple опубликовала исследование о том, что многоязычные LLM часто генерируют неестественные тексты на французском, китайском и других языках из-за доминирования английского в обучающих данных.

Для оценки проблемы разработали метрики на основе распределения лексики (Jensen-Shannon Divergence) и синтаксиса (анализ деревьев зависимостей через ядро Weisfeiler-Lehman). Тесты показали: даже топовые модели отстают от человеческих текстов, особенно в языках, далеких от английского.

Решение нашли в тонкой настройке через DPO. Используя датасеты с естественными и искусственно искажёнными ответами, модели учатся избегать англицизмов. Llama-3.1 после доработки стала реже использовать конструкции вроде «победитель был объявлен» в китайском, заменяя их на более натуральные формулировки.
machinelearning.apple.com

✔️ Bilibili выпустила открытую модель Index-AniSora для генерации аниме-видео с контролем стиля и движений.

Index-AniSora — модель для создания аниме-контента в разных стилях: от сериалов и манги до VTuber-анимации. Система построена на диффузионных моделях с улучшенным контролем времени и пространства и позволяет точно настраивать движения персонажей, мимику и даже отдельные кадры.

В релизе 2 версии: AniSoraV1.0 (на базе CogVideoX-5B) и AniSoraV2.0 (Wan2.1-14B). Вторая версия работает стабильнее, но первую можно запустить на потребительских GPU.
Модели обучались на датасете из 10 млн. пар "видео-тект" и 30 тыс. ручных оценок по 6 параметрам.
Bilibili на Github

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
День открытых дверей магистратуры Авито и ВШЭ

Хотите работать в сильнейших Data Science командах? Приходите на День открытых дверей магистратуры Авито и Факультета компьютерных наук НИУ ВШЭ — «Машинное обучение в цифровом продукте».

Когда: 26 мая
Во сколько: 18:00
Формат: онлайн

Что вас ждёт:
— расскажем о программе и задачах Data Scientists в Авито, о возможностях стажировки во время учёбы;
— подробно разберём о том, как и чему вы будете учиться;
— объясним, что нужно для поступления в нашу магистратуру, и как будет проходить приёмная кампания;
— ответим на вопросы о поступлении.

Чтобы не пропустить День открытых дверей, подписывайтесь на новости о программе.

Будем рады встрече!
🌟 Magentic‑UI от Microsoft — человеко‑ориентированный веб‑агент нового поколения

Что если ИИ-агент в браузере не просто «делает всё сам», а работает вместе с тобой — предлагает план, спрашивает разрешения, показывает действия и обучается на опыте?
Именно так работает Magentic‑UI — новый эксперимент от Microsoft Research.

🔜 Что это такое?

Magentic‑UI — это платформа, в которой ИИ-агенты помогают людям выполнять сложные задачи в браузере (заполнить форму, найти нужные данные, скачать файлы и т.д.), но при этом не берут всё на себя, а работают в паре с пользователем.

Это не автономный бот, а интерфейс взаимодействия: человек остаётся в центре принятия решений, а агент — в роли помощника.

🔜 Что умеет Magentic‑UI?

1) Планирует вместе с тобой
Агент предлагает пошаговый план действий. Ты можешь изменить, утвердить или уточнить его.

2) Показывает, что делает
Все действия видны — клики, ввод текста, навигация. Никакой «магии за кадром».

3) Спрашивает разрешение перед важными действиями
Агент не будет нажимать на кнопки "удалить" или "оплатить" без твоего согласия.

4) Обучается на успешных сценариях
Завершил задачу? Теперь этот план можно переиспользовать в будущем.

Где это может пригодиться?

• Заполнение длинных форм и анкет
• Автоматизация рутинных действий в браузере
• Создание умных пользовательских сценариев (например: «найди и скачай последние отчёты с нужного сайта»)
• Обучение и настройка собственных браузерных агентов

А как насчёт безопасности?

• Агент работает только на разрешённых сайтах (white-list)
• Весь код и браузер изолированы в Docker — ничего не утечёт
• Все действия — прозрачны и отменяемы

🔜 Официальная страница проекта
🔜 GitHub

@ai_machinelearning_big_data


#microsoft #ai #aiuagent #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Яндекс подвел итоги грантовой программы для разработчиков в опенсорсе 

В этом году компания выделила 7,2 млн рублей — всего в программе выиграли 12 проектов в трех треках: «Обработка и хранение данных», «Разработка», «Машинное обучение». Эти средства разработчики смогут направить на использование сервисов Yandex Cloud — от ML-решений до инфраструктурных инструментов.

Из интересных проектов в ML-направлении:
• Faster COCO Eval — реализация операций COCO-eval на языке C++, которая позволяет сократить время вычисления метрик AP в coco при работе с большим количеством объектов на изображении.
• VLMHyperBench — специализированный фреймворк для работы с русскоязычными документами на базе Vision Language Model (VLM).

Сейчас решения активно дорабатываются. Гранты позволят масштабировать и реализовать идеи по их улучшению. Радует, что компании поддерживают опенсорс-комьюнити. 

🔗Статья 

#VLMHyperBench #AI #VLM #OpenSource
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Сэм Алтман: мы не готовы к тому, что нас ждёт.

Именно это я снова и снова пытаюсь донести до людей, далёких от серфинга ежедневных новостей об искусственном интеллекте: ИИ и робототехника не просто изменят наш мир — они вытеснят нас из него.

А мы всё ещё живём так, будто это фантастика, будто у нас есть время. Но его уже нет.

В тот самый день, когда ты выйдешь на улицу и мимо тебя пройдут семь гуманоидных роботов, ощущение будет словно из фильма о будущем — только это будущее наступило. И, кажется, оно ближе, чем мы думаем. Это будет момент резкого прозрения: «чёрт возьми, они действительно начинают делать всё то, что раньше делали мы.»

@ai_machinelearning_big_data

#openai #altman #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
✔️ Deep Think в 2.5 Pro — интеллект, который учится думать по-настоящему.

Это не просто новая версия — это качественный скачок в способности ИИ к рассуждению.
Благодаря технологиям параллельного мышления, Deep Think анализирует сразу несколько возможных решений, прежде чем выбрать лучшее. Он размышляет не линейно, а как человек — сомневается, сравнивает, проверяет гипотезы.

📊 Результаты впечатляют:
Модель справляется с задачами, которые долгое время считались недостижимыми для машин.
Она набирает высокие баллы на USAMO 2025 — одном из самых сложных математических соревнований,
лидирует в LiveCodeBench — бенчмарке для кодинга уровня олимпиад,
и уверенно проходит MMMU, показывая 84% на тесте мультимодального мышления.

Gemini 2.5 Pro уже доступен в Jules — асинхронном агенте для кодинга, который справляется со сложными задачами в больших кодовых базах, на которые раньше уходили часы.

Он может планировать шаги, вносить изменения в файлы и многое другое — всего за несколько минут. ⏱️

Jules уже в публичной бета-версии → jules.google

✔️Еще команда DeepMind представила Gemini Diffusion: новый, подход в генерации текста. Вместо предсказания слов напрямую, модель создаёт ответы путём поэтапного уточнения шума — работает как искусственный «ремесленник», постепенно шлифуя результат.

Такой итеративный процесс особенно эффективен для задач программирования и математики, где требуется не просто единичный ответ, а быстрый цикл проб и корректировок. Модель способна многократно уточнять решения, улучшая их на каждом шаге, и демонстрирует впечатляющие результаты в этих областях.

Можно подать заявку в лист ожиданияhttps://goo.gle/44MwCW3

✔️ Google представили генератор видео Veo 3 — он генерирует видео сразу со звуком и даже с озвучкой э и липсинком.

Доступен с сегодняшнего дня в Gemini!

@ai_machinelearning_big_data


#GoogleIO #AI #DeepThink #Reasoning #Math #Code #Multimodal
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
✔️ Google I/O 2025.

Главным событием стал запуск Gemini Ultra — подписки за $249,99 в месяц, включающей доступ к Veo 3 (генератор видео со звуком), Imagen 4 (создание изображений) и Flow (редактор видео на базе ИИ). Для разработчиков анонсирован Stitch — инструмент, генерирующий код и UI по текстовому описанию или изображению.

Project Mariner, ИИ-агент для автоматизации веб-задач, теперь выполняет до 10 действий одновременно. В Gemini добавлены Live-режим с трансляцией экрана и интеграция с Google сервисами. Project Astra, мультимодальный ИИ с почти нулевой задержкой, будет использоваться в умных очках от Gentle Monster и Warby Parker.

В Поиске появится AI Mode для сложных запросов, а Beam (бывший Starline) предлагает 3D-телеконференции с переводом речи в реальном времени. В Workspace появятся умные ответы в Gmail и новые функции для Google Meet.
techcrunch.com

✔️ Apple представит SDK для интеграции ИИ-моделей в приложения на WWDC 2025.

Apple анонсировала WWDC 2025: ключевое выступление пройдёт 9 июня в 10:00 PT, а трансляция будет доступна через Apple TV и на YouTube. Главной новостью станет выпуск SDK и фреймворков, позволяющих сторонним разработчикам внедрять ИИ-модели компании в свои приложения. Упор сделан на компактные локальные модели, работающие непосредственно на устройствах, — это отличает подход Apple от облачных решений конкурентов.
apple.com

✔️ Red Hat внедряет ИИ в управление Enterprise Linux.

Red Hat анонсировала обновления для RHEL, усилив интеграцию ИИ и контейнерных технологий. Теперь Red Hat Insights предлагает ИИ-рекомендации по выбору пакетов и планированию обновлений, упрощая подготовку систем под задачи ИИ-разработки. Сервис анализирует потребности инфраструктуры, помогает оптимизировать сборку образов и снижает риски при переходе на новые версии RHEL и AppStream.

Для изолированных сред в Red Hat Satellite 6.17 появился Insights advisor в виде контейнера — правила и исправления будут храниться локально и обновляться без интернета.

Satellite теперь поддерживает image mode, объединяя управление контейнерами и традиционными пакетами в единый рабочий процесс. Не осталась без внимания и безопасность: Insights proxy позволяет подключаться к аналитике RHEL через прокси, минуя прямое соединение с интернетом.
Обновления уже доступны через Hybrid Cloud Console для подписчиков RHEL.
businesswire.com

✔️ SAP запустила ИИ-платформу Joule с интеграцией Perplexity AI и 230 сценариями использования.

На мероприятии SAP Sapphire представлена Joule — ИИ-платформа для трансформации бизнес-процессов. Решение интегрируется с S4/Hana, Ariba, ServiceNow, Gmail и LinkedIn, используя ИИ для оптимизации CRM и финансовых операций. Уже сейчас платформа поддерживает 1600 навыков и 230 готовых ИИ-сценариев, а к концу 2025 года их число вырастет до 400.

Особый акцент был сделан на партнерстве с Perplexity: их поисковый движок станет основой для Joule. Гендиректор Perplexity подчеркнул преимущества технологии — широкий охват веба и скорость, опережающие Google и OpenAI.
community.sap.com

✔️ Hunyuan-TurboS: гибридная модель с адаптивным мышлением.

Tencent опубликовала техотчет Hunyuan-TurboS — гибридной LLM, сочетающей архитектуры Transformer и Mamba2. Ее ключевая фишка — адаптивный CoT, который автоматически переключается между быстрыми ответами для простых задач и глубоким анализом для сложных. Это экономит ресурсы: модель тратит на 47% меньше токенов при генерации, чем DeepSeek-R1.

Под капотом 128 слоев (57 Mamba2, 7 Attention, 64 FFN) с 56 млрд. активных параметров и 560 млрд. общих. Обучалась на 16 трлн. токенов, а контекстное окно расширено до 256 тыс. токенов благодаря NTK-позиционному кодированию.

В тестах LMSYS Chatbot Arena модель набрала 1356 баллов, войдя в топ-8. Она лидирует в китайском, французском и испанском сегментах, а в математике и STEM-задачах почти догоняет DeepSeek-V3. При этом скорость вывода в 1,8 раза выше, чем у чисто трансформерных аналогов.
Попробовать модель можно в демо-спейсе на HF.
Tencent-Hunyuan на Github

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
МТС приглашает разработчиков на масштабную ИТ-конференцию True Tech Day 6 июня. Участие бесплатно

6 июня в Москве соберутся эксперты из крупных ИТ-компаний, чтобы обсудить кейсы внедрения ИИ в бигтехах и будущее разработки.

В программе:
— Выступления зарубежных спикеров с индексом Хирша более 50.
— Концентрация практических кейсов: узнай, как создаются большие ML-проекты.
— Доклады по архитектуре, бэкенд-разработке и построению ИТ-платформ.
— AI-интерактивы и технологические квесты: собери сервак, взломай Теслу, создай ИИ-ассистента, поучаствуй в экстрим-кодинге.
— Пространство для нетворкинга,
…а еще after-party со звездным лайн-апом.

Участвуй очно или онлайн, обменивайся опытом и знакомься с ведущими специалистами со всей страны.

Ждем тебя и коллег 6 июня в МТС Live Холл.
Участие бесплатное, но офлайн-места ограничены.
Регистрируйтесь по ссылке: https://truetechday.ru/
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀Сегментация временных рядов — это ключевая технология для аналитиков и Data Scientist, которые хотят повышать точность прогнозов и выявлять важные паттерны в данных.

🗓️ На открытом вебинаре 26 мая в 20:00 МСК мы разберем, как сегментировать временные ряды без разметки, используя лучшие подходы и методы машинного обучения. Вы познакомитесь с реальными кейсами и методами сегментации и научитесь применять их в своих проектах.

💻 Вы сможете эффективно работать с временными рядами в Python, улучшить качество анализа данных и решать прикладные задачи с помощью передовых технологий.

🔗 Регистрируйтесь на вебинар и получите скидку на программу обучения «Machine Learning. Advanced»: https://otus.pw/In6U/?erid=2W5zFHUgJba

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Этот стрим не настоящий… он полностью сгенерирован с помощью Veo 3.

@ai_machinelearning_big_data

#Veo #google
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Mistral AI представила Devstral — новый open-source LLM для автономных кодинг-агентов

Mistral AI представил Devstral — свою модель, специально разработанную для решения реальных задач в области кодинга.

Созданная в сотрудничестве с All Hands AI, Devstral демонстрирует выдающиеся результаты на бенчмарке SWE-Bench Verified, превзойдя все существующие open-source модели с результатом 46,8%.

💡Лицензирвоание: Apache 2.0 — свободное коммерческое использование.

https://huggingface.co/mistralai/Devstral-Small-2505

@ai_machinelearning_big_data

#Devstral #MistralAI #Кодинг #ИИ #OpenSource
Media is too big
VIEW IN TELEGRAM
✔️ Обновился API Grok: доступ к данным в реальном времени.

xAI дополнила свой Grok API новой функцией Live Search, которая позволяет искусственному интеллекту получать доступ к данным в режиме реального времени из соцсети X (бывший Twitter), интернета и актуальных новостей.

API Live Search доступен бесплатно в бета-версии до 5 июня 2025 года. xAI заверяет, что это обновление существенное улучшает способности Grok к рассуждениям и поиску данных.
docs.x.ai

✔️ BAGEL: открытая мультимодальная модель от ByteDance.

ByteDance-Seed выпустили BAGEL — универсальную мультимодальную модель с 7 млрд. активных и 14 млрд. общих параметров, которая сочетает генерацию, редактирование и анализ текста, изображений и видео.

BAGEL может создавать фотореалистичные изображения, предсказывать кадры, менять стили и даже «мыслить» перед генерацией, улучшая детализацию и логику выводов. Архитектура на основе Mixture-of-Transformer-Experts (MoT) разделяет обработку визуальных и семантических данных, что повышает точность редактирования — например, сохранение идентичности объектов при сложных правках.

В тестах BAGEL обходит многие открытые модели: 2388 баллов в MME (визуальное понимание) и 0.88 в GenEval (генерация изображений). При этом «интеллектуальное» редактирование с CoT почти догоняет Gemini 2.0.
Веса - на HuggingFace, техотчет - на Arxiv, код - на Github, попробовать в демо можно тут.
bagel-ai.org

✔️ NVIDIA планирует выпустить RTX 5080 Super.

По данным утечек от известного инсайдера Kopite, NVIDIA готовит к производству видеокарту RTX 5080 Super. Модель получит 24 ГБ памяти GDDR7 — на 50% больше, чем у базового RTX 5080, благодаря 3 ГБ модулям. Несмотря на тот же 256-битный интерфейс и 10 752 CUDA-ядра, пропускная способность памяти вырастет до 1 ТБ/с (+6,6%), а TGP в районе 400 Вт.

Цена RTX 5080 Super, по оценкам, составит $1000–1500. Пока неясно, повторит ли NVIDIA стратегию RTX 4080 Super со снижением цены, но в текущих рыночных условиях на это рассчитывать сложно.
tomshardware.com

✔️ Stability AI обновила модель Stable Video 4D до версии 2.0.

Stability AI выпустила обновление своей модели — Stable Video 4D, версию 2.0 (SV4D 2.0), которая упрощает создание динамических 4D-ассетов для игр, кино и виртуальных миров. Новая модель генерирует более четкие и согласованные объекты в движении, используя всего одно объектно-ориентированное видео — без сложных мультикамерных сетапов или предобработки.

В 2.0 переработали архитектуру, теперь она включает 3D-внимание для анализа пространства и времени, что снижает артефакты даже в динамичных сценах. Модель обучалась поэтапно: сначала на статике, потом — на движении. По тестам, SV4D 2.0 лидирует в бенчмарках LPIPS, FVD и FV4D, обгоняя DreamGaussian4D и SV3D по согласованности ракурсов и плавности анимации.
Модель доступна под лицензией Stability AI Community License на HuggingFace, код - на Github.
stability.ai

✔️ AIOZ Network запустила децентрализованный маркетплейс AIOZ AI на базе DePIN.

AIOZ AI — децентрализованная платформа для торговли моделями ИИ и наборами данных, работающая на инфраструктуре DePIN. Она позволяет разработчикам и компаниям загружать, монетизировать и использовать ресурсы в распределенной сети, сохраняя контроль над своими активами.

Платформа разделена на этапы: уже доступны базовые функции маркетплейса, а в будущем добавят поддержку крупных файлов, API-интеграции и возможность обучения моделей в сети DePIN. Участники смогут получать вознаграждения за использование их ресурсов, а токенизация активов станет следующим шагом.
inferencegrid.ai

✔️ OpenAI покупает стартап Джони Айва — LoveFrom/io — за $6,5 миллиарда в виде доли в капитале.

Айв займётся разработкой нового поколения аппаратных продуктов на базе ИИ внутри OpenAI.

Компания собирается конкурировать с всеми крупнейшими технологическими гигантами.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Приглашаем на AI360 — бакалавриат Яндекса и Сбера, где готовят будущих экспертов по искусственному интеллекту! 🚀

Уже с первых курсов вас ждёт глубокая математика, программирование и реальные ИИ-задачи от ведущих IT-компаний. Вы будете не просто изучать теорию, а разрабатывать ML-решения для индустрии, погружаться в исследования и тестировать свои идеи в экосистеме Яндекса и Сбера.

Программа доступна в НИУ ВШЭ, МФТИ, ИТМО, СПбГУ и Университете Иннополис, но границы вузов не помеха — студенты могут посещать курсы в университетах-партнёрах, участвуя в межвузовских модулях. А ещё — изучать лучшие мировые практики, работать с передовыми моделями и посещать топовые ИИ-конференции.

Готовы поступить на программу мечты? Подайте документы на AI360 до 25 июля: https://bit.ly/3SdeJIE
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Anthropic представила Claude 4 Opus и Sonnet 4

На мероприятии Code /w Claude CEO Anthropic презентовал Claude 4 Opus и Claude Sonnet 4.

✔️ Opus 4 Anthropic называет лучшей моделью для кодинга, она справляется с многошаговыми задачами, работая часами без потери эффективности — например, сохраняет контекст игры в Pokémon, записывая ключевые данные в локальные файлы.

✔️Sonnet 4, доступная даже бесплатным пользователям, стал серьезным апгрейдом предыдущей версии: точнее выполняет инструкции и сократил ошибки в навигации по коду с 20% до нуля.

Обе модели поддерживают расширенное мышление: чередуют анализ и использование инструментов веб-поиска, а также выполняют задачи параллельно.

Для разработчиков появилась интеграция с VS Code, JetBrains и GitHub Actions — правки от Claude теперь отображаются прямо в редакторе. В бета-режиме можно подключать SDK для создания собственных агентов.

По словам партнеров: GitHub и Replit, Opus 4 понимает сложные кодбазы, а Sonnet 4 идеален для повседневных задач. Например, в GitHub Copilot его уже тестируют как основу для нового агента.

В тарифные планы Pro, Max, Team и Enterprise Claude включены обе модели и расширенное мышление, а Sonnet 4 также доступен для бесплатных пользователей.

Обе модели доступны в Anthropic API, Amazon Bedrock и Google Cloud's Vertex AI. Ценообразование остается неизменным по сравнению с предыдущими моделями Opus и Sonnet: Opus 4 - $15/$75 за миллион токенов (ввод/вывод), Sonnet 4 - $3/$15.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/05/22 00:06:15
Back to Top
HTML Embed Code: