Telegram Group Search
🚀 Google выпустила EmbeddingGemma: лёгкую open-source модель для текстовых эмбеддингов.

Модельку можно запускать прямо на телефоне или ноутбуке, без интернета и с сохранением приватности.

EmbeddingGemma - новый лидер среди открытых многоязычных моделей <500M на MTEB

🟢Что внутри:
308M параметров, но по качеству обгоняет все модели до 500M (по MTEB)
• Работает очень быстро: менее 15 мс на EdgeTPU (256 токенов)
• Понимает 100+ языков
• Размер эмбеддингов можно уменьшать (768 → 128) без потери качества
• Контекст до 2000 токенов
• Уже доступна в Sentence-Transformers, LangChain, llama.cpp, transformers.js, Weaviate и др.

🟠Blog: https://developers.googleblog.com/en/introducing-embeddinggemma/
🟠Models: https://huggingface.co/collections/google/embeddinggemma-68b9ae3a72a82f0562a80dc4

@ai_machinelearning_big_data

#AI #Google #Gemma #EmbeddingGemma #ML #DeepLearning #LLM #NLP
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍100🔥3126🥰2🤔2💘2
Media is too big
VIEW IN TELEGRAM
✔️ Projects в ChatGPT стали доступны для всех.

Функция "Проекты" (Projects) теперь доступна не только по подписке, но и для бесплатных пользователей ChatGPT. "Проекты" работают как цифровые рабочие пространства, где можно объединять чаты, справочные файлы и пользовательские инструкции, связанные с одной долгосрочной задачей. Основная фишка "Проектов" - встроенная память. ChatGPT запоминает контекст всех разговоров и документов в рамках конкретного проекта.

Вместе с этим OpenAI увеличила лимиты на загрузку файлов (до 5 для бесплатных аккаунтов, Plus до 25, а Pro до 40), добавила элементы управления памятью для каждого проекта и возможность их кастомизации. Обновление уже доступно в веб-версии и в приложении для Android, релиз для iOS ожидается в ближайшее время.
OpenAI в сети X

✔️ DeepSeek работает над автономным ИИ-агентом.

Китайский стартап разрабатывает платформу на базе агентного ИИ. Новая система проектируется для самостоятельного выполнения многошаговых задач от имени пользователя, требуя лишь минимальных начальных инструкций.

Ключевой особенностью ИИ-агента станет способность к самообучению и улучшению своих действий на основе предыдущего опыта. По информации от источников, знакомых с планами компании, основатель DeepSeek Лян Вэньфэн нацелен на запуск нового программного обеспечения уже в четвертом квартале этого года.
bloomberg.com

✔️ CoreWeave покупает OpenPipe.

Облачный провайдер CoreWeave объявил о приобретении стартапа OpenPipe. Компания помогает разработчикам создавать кастомизированные ИИ-агенты с использованием RL через свой популярный опен-сорс инструментарий ART (Agent Reinforcement Trainer).

Эта сделка продолжает стратегию CoreWeave по расширению технологического стека, начатую с покупки платформы Weights & Biases в марте. Вся команда и клиентская база OpenPipe переходят в CoreWeave. Финансовые условия сделки стороны не раскрывают.
businesswire.com

✔️ OpenAI запускает платформу для трудоустройства и сертификации ИИ-специалистов.

Компания анонсировала создание собственной экосистемы для найма, которая объединит ИИ-платформу для поиска работы и расширенную программу сертификации, чтобы напрямую связать работодателей с кандидатами, чьи навыки в области ИИ можно верифицировать. Сама платформа будет использовать модели для сопоставления компетенций соискателей с требованиями вакансий, опираясь на собственную таксономию навыков.

Система сертификации вырастет из OpenAI Academy и предложит несколько уровней квалификации: от базовой ИИ-грамотности до продвинутого промпт-инжиниринга. Процесс обучения и сдачи экзаменов будет интегрирован в режим Study непосредственно в ChatGPT. Для корпоративных клиентов предусмотрена интеграция через SSO и API, а также механизм обратной связи для адаптации учебных курсов под реальные запросы рынка.
openai.com

✔️ NVIDIA и Университет Эссекса провели крупнейшую в истории симуляцию в статистической физике.

Инженеры из Университет Эссекса при поддержке NVIDIA установили новый мировой рекорд в компьютерном моделировании. Эксперимент позволил впервые на практике наблюдать термодинамический предел — ключевое понятие, объясняющее, как свойства материи проявляются в макроскопических системах.

Для симуляции использовалась стоечная архитектура NVIDIA GB200 NVL72, которая позволила смоделировать поведение до 70 триллионов взаимодействующих частиц. Система достигла рекордной производительности почти в 115 000 обновлений решетки в наносекунду.

Результаты исследования, опубликованные в Physical Review Research, могут ускорить разработку новых дисплеев, магнитных материалов и дать более глубокое понимание фундаментальных свойств материи.
essex.ac.uk


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
140👍24🔥12💘2💔1
🌟 На Hugging Face вышла обзорная статья об открытых ML-датасетах

Автор новостного ресурса Daily Dose of Data Science собрал самые интересные релизы крупных датасетов и моделей. Среди них — Yambda-5B от команды Яндекса, крупнейший в мире открытый музыкальный рекомендательный датасет.

В Yambda-5B 4,79 млрд обезличенных взаимодействий: прослушивания, лайки и дизлайки треков. Датасет уже привлек внимание мировых исследователей и обещает стать важным инструментом для развития рекомендательных систем.

🔗 Подробнее

@ai_machinelearning_big_data

#ai #ml #dataset
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥39👍199🥰9🍓3🗿3😁2💘1
🚀 Decart представила Oasis 2.0 — video-video модель, которая позволяет менять игровые миры и стили в реальном времени: 1080p, 30fps.

Примеры выглядят кафово: Minecraft в швейцарских Альпах, на фестивале Burning Man или с альтернативными наборами персонажей.

Игровой мир можно менять «на лету», без подргузки.

Демку можно попробовать в вебе или использовать как мод для Minecraft.

🟢 Демо и мод: http://oasis2.decart.ai/demo

@ai_machinelearning_big_data

#AI #Gaming #Minecraft #Oasis2 #DecartAI #GameDev #Mods #AIDemo #RealtimeAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
53👍18😐10🥰6💘2🗿1
🌟 InfoSeek: синтез данных для deep‑research с формализацией HCSP.

BAAI представила InfoSeek — открытую методику синтеза данных и учебный контур для глубоких исследований. Задачи такого класса выходят за рамки обычного извлечения фактов: модель должна раскладывать вопрос на подзадачи, координировать многошаговое рассуждение и проверять ответы по источникам.

Эти задачи формализуются как HCSP — иерархические задачи удовлетворения ограничений, решение которых возникает только при последовательном сужении кандидатов на нескольких уровнях, где каждый внутренний узел сам является подзадачей, а зависимость между узлами образует дерево исследования.


Базовая идея проста: данные строятся вокруг древа исследования. Вершины - сущности или атомарные факты, ребра - проверяемые отношения из Википедии и открытых страниц. Алгоритм синтеза явно управляет структурой, чтобы исключить недоопределенность или ранние "короткие замыкания".

В HCSP ответ формально равен пересечению множеств, заданных текущими ограничениями и рекурсивными подвопросами; в терминах дерева корень — финальный ответ. Такой подход не только задаёт глубину и ширину рассуждения, но и делает каждый промежуточный шаг проверяемым по конкретным утверждениям.

🟡Синтез выполняет связка из 2 агентов.

Планировщик контролирует глобальную сложность, выбирая цель и тип расширения, а Браузер добывает факты и ссылки из страницы сущности. 4 операции покрывают весь жизненный цикл:

🟢Инициализация из "якоря";

🟢"Размытие родителя" - добавление нескольких независимых условий, которые в совокупности определяют уникальный ответ без включений между кандидатами;

🟢Вертикальное углубление по гиперссылке для увеличения высоты дерева;

🟢Генерация текста вопроса лишь после того, как каждый узел имеет достаточный набор проверяемых ограничений и достигнуты заданные метрики сложности.

Качество контролируется по 2 осям: сложность и проверяемость. Сначала вопросы прогоняются "в лоб": если мощная базовая модель отвечает правильно без поиска, образец исключается, так было отсеяно около 2%. Затем проверяется решаемость на фиксированном наборе страниц с примесями-дистракторами и все двусмысленное удаляется.

Итог: датасет с 50 тыс. пар вопрос–ответ и 16,5 тыс. траекторий размышлений с метками извлечения.

🟡Эксперименты.

Тесты показали, что InfoSeek переносится за пределы домашнего домена. На классических наборах для извлечения фактов и мульти‑hop вопросов компактная модель InfoSeeker‑3B опережает типовые RAG и агентные пайплайны.

На BrowseComp‑Plus с фиксированным корпусом 100K страниц и BM25 точность достигает 16,5% при среднем 8,24 обращения к поиску, что выше, чем у Gemini 2.5 Flash, Sonnet 4 и GPT‑4.1 и значительно выше Qwen3‑32B и Search‑R1‑32B.

Замена обучающего набора NQ+HQA на InfoSeek поднимает точность с 3,0% до 16,5% и делает запросы осмысленно более частыми.

▶️ Из готового у проекта есть датасет, техотчет, конструктор древа данных и код для SFT- трейна. В планах - код RL и публикация весов InfoSeeker‑3B.


📌Лицензирование: Apache 2.0 License.


🟡Датасет
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #DeepResearch #Dataset #InfoSeek
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5516🔥10💘2
🚀 Команда Qwen представила Qwen3-Max-Preview (Instruct) — свою крупнейшую модель на сегодняшний день, с более чем 1 триллионом параметров

По бенчмаркам Qwen3-Max-Preview опережает предыдущий флагман Qwen3-235B-A22B-2507.

Внутренние тесты и первые отзывы пользователей говорят о том, что модель стала сильнее в диалогах, агентных задачах, следовании инструкциям и обладает более широкими знаниями.

Qwen обещают очень скоро выпустить ещё что-то интересное.

Qwen3-Max-Preview уже доступна в Qwen Chat и через Alibaba Cloud API.

Масштабирование работает.


🟢Qwen Chat: https://chat.qwen.ai
🟢Alibaba Cloud API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-max-preview

@ai_machinelearning_big_data


#AI #Qwen3 #LLM #AlibabaCloud #QwenChat
Please open Telegram to view this post
VIEW IN TELEGRAM
71👍42🔥39👏3💘1
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic ужесточила региональные ограничения.

Доступ к ИИ-моделям Anthropic будет запрещен организациям, которые более чем на 50% прямо или косвенно принадлежат компаниям из юрисдикций с ограниченным доступом. Новое правило действует независимо от того, где зарегистрирована и оперирует дочерняя структура.

Обновление условий - ответ на лазейку, которая позволяла обходить ограничения через регистрацию филиалов в других странах. В Anthropic заявляют, что компании, подконтрольные авторитарным режимам, могут быть принуждены к сотрудничеству со спецслужбами и передаче данных.
anthropic.com

✔️ OpenAI планирует производство собственных ИИ-чипов в партнерстве с Broadcom.

OpenAI со следующего года запускает производство кастомных чипов. Проект реализуется совместно с Broadcom для того, чтобы снизить зависимость от Nvidia и обеспечить растущие потребности в вычислительных мощностях.

Ранее глава Broadcom, Хок Тан упоминал о новом клиенте, который разместил заказ на $10 млрд. По данным нескольких источников, этим клиентом и является OpenAI. Сообщается, что чипы будут использоваться исключительно для внутренних операций компании и не поступят в свободную продажу.
ft.com

✔️ Kimi Ai обновила модель K2.

Новая версия м индексом 0905 получила двукратное увеличение контекстного окна со 128K до 256K токенов, улучшение агентных возможностей для написания кода, повышение качества генерации фронтенд-кода и увеличение скорости работы API до 60-100 токенов в секунду.

Kimi K2 — это открытая модель с архитектурой MoE на 1 триллион общих и 32 миллиарда активных параметров. Версия 0905 уже доступна в официальных приложениях Kimi, а также для самостоятельного развертывания через репозитории Hugging Face и ModelScope.
Kimi Ai в сети Х

✔️ Google Photos получил Veo 3 для Image-to-video.

Google обновляет сервис Photos, интегрируя в него модель генеративного видео Veo 3. Теперь пользователи, пока только в США, могут превращать статичные изображения в короткие четырехсекундные ролики без звука.

Функция находится во вкладке «Создать», где предлагаются опции «Легкое движение» и «Мне повезет!». Помимо оживления снимков, ИИ позволяет стилизовать фотографию под 3D-анимацию и также сохранить ее в формате видео.

Для владельцев бесплатных аккаунтов установлено ежедневное ограничение на количество генераций, а подписчики планов Ultra и Pro получают расширенные лимиты.
blog.google

✔️ RoboBallet: ИИ для автоматической координации промышленных роботов.

Google DeepMind, Intrinsic и University College London разработали метод RoboBallet, предназначенный для автоматизации программирования групп промышленных роботов, который решает проблему трудоемкой ручной настройки.

В основе - графовая нейронная сеть, обученная с подкреплением на миллионах симуляций. Роботы, задачи и препятствия представляются в виде узлов графа, что позволяет системе моделировать сложные взаимосвязи и находить оптимальные, бесконфликтные траектории движения для каждого манипулятора. Для работы системе достаточно CAD-файлов и общего описания задачи.

В лабораторных тестах RoboBallet превзошел на 25% традиционные подходы и решения. Эффективность системы масштабируется: при увеличении числа роботов с 4 до 8, среднее время выполнения задачи сократилось на 60%. Несмотря на результаты, технология пока не тестировалась на реальных производственных линиях и имеет ограничения: она не справляется с разнотипными роботами или задачами со строгой последовательностью действий.
intrinsic.ai

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4820🔥9🤣6🤬2🤷‍♂1💘1
📌Почему языковые модели галлюцинируют.

OpenAI опубликовали исследование о причинах галлюцинации LLM.

Галлюцинации - это не мистический сбой в сознании ИИ, а вполне предсказуемый побочный эффект его обучения.

Представьте, что перед моделью стоит задача бинарной классификации - определить, является ли предложенное утверждение корректным или нет. Математическая выкладка в исследовании проста: уровень ошибок генерации как минимум в 2 раза превышает уровень ошибок классификации. Если модель не способна надежно отличить факт от вымысла, она неизбежно будет этот вымысел генерировать.

🟡Все начинается еще на претрейне.

Даже на идеально чистых данных статистические цели обучения подталкивают модель к генерации ошибок. Особенно это касается фактов, которые редко встречаются в обучающей выборке.

В работе вводится понятие singleton rate — доля фактов, которые появились в данных лишь один раз. Теоретический расклад показывает, что уровень галлюцинаций модели будет как минимум равен этой доле.

Проще говоря, если 20% фактов о днях рождения в датасете встретились единожды, модель будет выдумывать дни рождения как минимум в 20% случаев.

🟡Эксперименты это подтверждают.

Модель DeepSeek-V3, на просьбу назвать день рождения одного из авторов статьи, трижды выдала неверные даты: 03-07, 15-06 и 01-01. Ни одна из них не была даже близка к правильной (осенью).

В другом тесте, где нужно было сосчитать количество букв D в слове DEEPSEEK, та же DeepSeek-V3 выдавала 2 или 3, а модели компании Марка Цукерберга и Claude 3.7 Sonnet доходили до 6 и 7.

При этом базовые модели после претрейна часто показывают отличную калибровку. Например, у предобученной GPT-4 ожидаемая ошибка калибровки составляла всего 0.007, что говорит о высокой статистической адекватности ее предсказаний. Кто бы сомневался.

🟡Почему галлюцинации не исчезают после пост-тренинга и RLHF?

Ответ на этот вопрос - в системе оценки. Большинство современных бенчмарков поощряют угадывание. Модели, по сути, постоянно находятся в режиме сдачи экзамена, где за правильный ответ дают 1 балл, а за пустой бланк или ответ я не знаю - 0. В такой системе оптимальная стратегия при неуверенности - только угадать. Любой шанс на правильный ответ лучше, чем гарантированный ноль.

Эту гипотезу подтвердили анализом популярных оценочных наборов.

В GPQA, MMLU-Pro, Omni-MATH, SWE-bench и HLE используется строго бинарная система оценки (правильно/неправильно). Возможности получить частичный балл за честное признание в незнании там просто нет. Из 10 рассмотренных в исследовании популярных бенчмарков только один, WildBench, присуждает частичные баллы за ответы формата я не знаю. Остальные же фактически наказывают модель за отказ галлюцинировать, создавая эпидемию штрафов за неуверенность и поощряя ее выдавать правдоподобную ложь.

🟡Что делать инженерам.

OpenAI предлагает встраивать явные целевые уровни уверенности в рубрики, вводить поведенческую калибровку и оценивать модели по секциям с разными порогами уверенности.

Еще рекомендуют включают мониторинг singleton-rate на корпусе, измерение вероятности важных ответов, комбинирование RAG с верификацией фактов и изменение лидербордов чтобы ответы я не знаю не штрафовались автоматически.

🔜 Читать статью полностью


@ai_machinelearning_big_data

#AI #ML #LLM #Research #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
67👍26🔥13👏2🥰1💘1
🔥 Успех в IT = скорость + знания + окружение

Здесь ты найдёшь всё это — коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!

Мл: www.group-telegram.com/machinelearning_ru
Python: www.group-telegram.com/pythonl
Linux: www.group-telegram.com/linuxacademiya
Собеседования DS: www.group-telegram.com/machinelearning_interview
C++ www.group-telegram.com/cpluspluc
Docker: www.group-telegram.com/DevopsDocker
Хакинг: www.group-telegram.com/linuxkalii
Devops: www.group-telegram.com/DevOPSitsec
Data Science: www.group-telegram.com/data_analysis_ml
Javascript: www.group-telegram.com/javascriptv
C#: www.group-telegram.com/csharp_1001_notes
Java: www.group-telegram.com/java_library
Базы данных: www.group-telegram.com/sqlhub
Python собеседования: www.group-telegram.com/python_job_interview
Мобильная разработка: www.group-telegram.com/mobdevelop
Golang: www.group-telegram.com/Golang_google
React: www.group-telegram.com/react_tg
Rust: www.group-telegram.com/rust_code
ИИ: www.group-telegram.com/vistehno
PHP: www.group-telegram.com/phpshka
Android: www.group-telegram.com/android_its
Frontend: www.group-telegram.com/front
Big Data: www.group-telegram.com/bigdatai
МАТЕМАТИКА: www.group-telegram.com/data_math
Kubernets: www.group-telegram.com/kubernetc
Разработка игр: https://www.group-telegram.com/gamedev
Haskell: www.group-telegram.com/haskell_tg
Физика: www.group-telegram.com/fizmat

💼 Папка с вакансиями: www.group-telegram.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.group-telegram.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.group-telegram.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.group-telegram.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.group-telegram.com/addlist/mzMMG3RPZhY2M2Iy

😆ИТ-Мемы: www.group-telegram.com/memes_prog
🇬🇧Английский: www.group-telegram.com/english_forprogrammers
🧠ИИ: www.group-telegram.com/vistehno

🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.group-telegram.com/addlist/BkskQciUW_FhNjEy

Подпишись, если хочешь быть в числе тех, кого зовут в топовые проекты!
26👍10🥱8🔥7🤬2
📌BED-LLM: адаптивный сбор информации для LLM.

Исследователи из Оксфорда и Apple представили BED-LLM, новый подход для улучшения способности LLM разумно и адаптивно собирать информацию от пользователя или другого внешнего источника.

Суть подхода заключается в применении последовательного Байесова экспериментального дизайна к процессу генерации вопросов. Вместо промптинга система максимизирует ожидаемый прирост информации при каждом следующем вопросе. Алгоритм итеративно выбирает запросы, которые дают максимальную информацию о целевом параметре.

Критический момент — правильная конструкция совместной модели распределения целевой переменной и ответов с учетом вопросов. Выбор между парой «приор-правдоподобие» и «данные-оценка» кардинально влияет на производительность. Итоговый выбор пал на на первом варианте, как более подходящем для случаев, когда пространство целевых гипотез сложнее пространства возможных ответов.

Ключевая фишка BED-LLM в фильтрации гипотез с учетом истории диалога. Система не полагается только на контекстное обучение. Вместо этого алгоритм сначала сэмплирует кандидатов из распределения модели, а затем отфильтровывает несовместимые с историей варианты через проверку правдоподобия.

🟡Тесты

Чтобы проверить метод в деле, его протестировали на классической игре "20 вопросов". В задаче по угадыванию знаменитостей результат на Mistral-Large поднялся с 14% при использовании стандартных промптов (Naive QA) до 91% с фреймворком BED-LLM.

Упрощенный подход, основанный на максимизации энтропии показал промежуточный результат в 68%. Схожая картина и с другими моделями: Qwen2.5-72B при угадывании животных достигла 94% точности с BED-LLM против 85% у энтропии и всего 45% у Naive QA. А GPT-4o в тесте со знаменитостями показала рост с 45% до 86%.

Второй тест метода провели на более абстрактной задаче - выявлении кинопредпочтений пользователя.

Здесь вместо угадывания конкретного объекта модель должна была составить профиль вкусов пользователя, задавая ему вопросы с несколькими вариантами ответа. Качество рекомендаций, сгенерированных на основе этого профиля, оценивалось по шкале от 1 до 5. И здесь BED-LLM стабильно опережал конкурентов, выходя в лидеры уже к третьему вопросу.

Интересное наблюдение: простое использование предсказательной энтропии вместо полного ожидаемого прироста информации значительно ухудшает результаты. Многие предыдущие теории делали именно такое упрощение, считая энтропию правдоподобия константой. Эксперименты с BED показали, что это неоправданное допущение - вариативность ожидаемой условной неопределенности между вопросами может быть решающей для выбора хороших запросов.



🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #Research #BayesianDesign
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3517👍16
Media is too big
VIEW IN TELEGRAM
🤖 XLeRobot — домашний робот за $660, который управляется с геймпада Xbox.

XLeRobot — это открытый проект, который позволяет собрать настоящего двухрукого мобильного робота своими руками.

Автор — студент Rice University Gaotian Wang, в проектеон сделал упор на доступность и практичность.

💡 Основное:
- Цена сборки ≈ $660 — полноценный робот с двумя руками и колесной базой.
- Можно собрать упрощённую версия за $250 на базе LeKiwi + SO-100, которая собирается быстрее.
- В комплекте: URDF-модели, симуляция, управление через VR, Joy-Con или Xbox-геймпад.
- Подходит для экспериментов в симуляции и переноса в реальный мир (**Sim2Real**).
взаимодействия с окружающей средой.

📈 Популярность: проект уже собрал 1.7k+ звёзд и десятки форков на GitHub.

XLeRobot — это недорогая и открытая платформа для тех, кто хочет попробовать себя в робототехнике, исследовать управление, симуляцию и AI-алгоритмы на реальном роботе.

🟢Репозиторий: github.com/Vector-Wangel/XLeRobot

@ai_machinelearning_big_data


#robotics #opensource #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
86👍29🔥19😁4🤣3🌭2🍓2❤‍🔥1
🇪🇺 NEWS: ASML инвестирует €1.3B в Mistral

Европейский чип-гигант ASML вложит €1.3 млрд в Series C раунд Mistral (€1.7B) и станет крупнейшим акционером стартапа.

💰 Оценка Mistral — €10 млрд ($11.7B) pre-money.

Что значит *pre-money*?
Это стоимость компании до привлечения новых инвестиций. То есть инвесторы договорились, что Mistral стоит €10 млрд, и только потом добавили ещё €1.7 млрд свежих денег. После этих вложений итоговая стоимость компании становится €11.7 млрд post-money.

🟢 Главное
Союз лидеров: крупнейший поставщик оборудования для чипов (ASML) объединяется с самой быстрорастущей AI-лабораторией Европы (Mistral).
Суверенность: Европа строит собственный стек - от чипов до моделей, снижая зависимость от США и Китая.
Ресурсы для Mistral: свежие деньги для роста, доступ к управлению, громкая оценка для привлечения талантов и заключения крупных контрактов.

🟢Технический аспект
ASML (Нидерланды) - единственный в мире производитель EUV-литографии (*Extreme Ultraviolet Lithography* - технология печати микросхем с использованием сверхкоротких волн ультрафиолета).
Один аппарат стоит ~$180M и используется TSMC и Intel. Даже небольшие улучшения в производительности приносят огромные деньги.

Эта сделка - это стратегический союз, который даёт Европе шанс поучаствовать в AI гонке.

🟢 Подробнее

@ai_machinelearning_big_data

#ai #news #mistral #investments
Please open Telegram to view this post
VIEW IN TELEGRAM
36👍23🔥14😁32🤔2
🎬 OpenAI снимает полнометражный мультфильм с помощью ИИ

OpenAI поддерживает проект Critterz — первый полнометражный анимационный фильм, созданный преимущественно с применением генеративного ИИ.

📌 Задача проекта — доказать, что кино можно снимать в несколько раз быстрее и дешевле, чем в Голливуде:
- вместо привычных 3 лет производство займёт всего 9 месяцев
- бюджет — менее $30 млн (значительно меньше, чем обычно стоит производство подобных анимационных фильмов)
- премьера намечена на Каннский кинофестиваль в мае 2026 года, после чего планируется мировой прокат

Команда собирается привлечь живых актёров для озвучивания персонажей и нанять художников, которые подготовят эскизы. Эти материалы будут загружаться в инструменты OpenAI — включая GPT-5 и модели генерации изображений.

⚡️ Основная ставка делается на быстрые итерации: эскиз → генерация → правка → повторная генерация. Такой процесс должен заменить долгие и дорогие ручные пайплайны классической анимации.

🟢 Подробнее

@ai_machinelearning_big_data

#ai #openai #genai


🟢 Подробнее

@ai_machinelearning_big_data

#ai #openai #genai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2816🔥13😁9🤬4😭32
2025/09/08 11:09:47

❌Photos not found?❌Click here to update cache.


Back to Top
HTML Embed Code: