📄 Это исследование оценивает 14 техник prompt-инжиниринга для 10 задач в области Software Engineering, используя 4 разных LLM.
Методология 🔧:
● Эффективность оценивалась с помощью метрик:
● Анализировались лингвистические характеристики prompt'ов:
● Применялась
📌 Выводы помогут понять, какие типы prompt'ов реально работают в инженерных задачах и почему.
Читать
Методология 🔧:
● Эффективность оценивалась с помощью метрик:
Accuracy
, F1 score
, CodeBLEU
, BLEU
.● Анализировались лингвистические характеристики prompt'ов:
лексическое разнообразие
, число токенов
и их связь с качеством ответа.● Применялась
контрастивная интерпретация
, чтобы выявить ключевые факторы, влияющие на результативность техник.📌 Выводы помогут понять, какие типы prompt'ов реально работают в инженерных задачах и почему.
Читать
🎯 5 ИИ-проектов, которые ты можешь собрать за выходные
Хочешь прокачать навыки ML и Python без математики и Kaggle? Лови 5 готовых идей, которые можно собрать за 1–2 дня:
🔹 Голосовой ассистент — Whisper + GPT + озвучка
🔹 Чат-бот для PDF — LangChain + FAISS + OpenAI
🔹 Генератор картинок — Stable Diffusion + Gradio
🔹 Подписи к фото — BLIP + HuggingFace
🔹 TL;DR бот — BART или GPT для суммаризации текста
✅ Примеры кода
✅ Деплой на HuggingFace / Streamlit
✅ Всё реально собрать за выходные
📎 Забирай гайд — и добавь проекты в резюме: «AI developer: checked»
Хочешь прокачать навыки ML и Python без математики и Kaggle? Лови 5 готовых идей, которые можно собрать за 1–2 дня:
🔹 Голосовой ассистент — Whisper + GPT + озвучка
🔹 Чат-бот для PDF — LangChain + FAISS + OpenAI
🔹 Генератор картинок — Stable Diffusion + Gradio
🔹 Подписи к фото — BLIP + HuggingFace
🔹 TL;DR бот — BART или GPT для суммаризации текста
✅ Примеры кода
✅ Деплой на HuggingFace / Streamlit
✅ Всё реально собрать за выходные
📎 Забирай гайд — и добавь проекты в резюме: «AI developer: checked»
👩🏻💻 mcp-agent — фреймворк для создания интеллектуальных агентов с Model Context Protocol.
Этот проект реализует идеи Anthropic по стандартизации взаимодействия ИИ-ассистентов с внешними сервисами. Вместо того чтобы писать сложные интеграции, вы можете подключать агентов к MCP-серверам и использовать готовые шаблоны для построения рабочих процессов.
Фреймворк поддерживает все паттерны из Building Effective Agents, включая параллельное выполнение задач, маршрутизацию запросов и swarm-оркестрацию агентов. При этом он остается легковесным и позволяет комбинировать разные подходы.
🤖 GitHub
@bigdatai
Этот проект реализует идеи Anthropic по стандартизации взаимодействия ИИ-ассистентов с внешними сервисами. Вместо того чтобы писать сложные интеграции, вы можете подключать агентов к MCP-серверам и использовать готовые шаблоны для построения рабочих процессов.
Фреймворк поддерживает все паттерны из Building Effective Agents, включая параллельное выполнение задач, маршрутизацию запросов и swarm-оркестрацию агентов. При этом он остается легковесным и позволяет комбинировать разные подходы.
🤖 GitHub
@bigdatai
Media is too big
VIEW IN TELEGRAM
🚀 Cosmos-Predict2 — новая открытая видео-модель для Physical AI от NVIDIA!
Cosmos-Predict2 — ключевая часть экосистемы World Foundation Models (WFMs), созданная для Physical AI. Модель умеет предсказывать будущее состояние визуального мира, используя текст и видео. Cosmos разработан для ускорения обучения моделей, которые понимают физику, среду и действия — от автономных автомобилей до роботов. Выглядит очень интересно.
Это самое мощное поколение моделей в экосистеме Cosmos. Модель заметно улучшена по сравнению с Predict1:
🎯 лучшее качество видео
🧠 точнее соответствует текстовому описанию
🎥 более реалистичная динамика движения
📊 Cosmos-Predict2 превосходит другие open-source видео foundation-модели.
▪ Веса
▪ Полный код для инференса и обучения (с туториалами)
@ai_machinelearning_big_data
#Cosmos #NVIDIA
Cosmos-Predict2 — ключевая часть экосистемы World Foundation Models (WFMs), созданная для Physical AI. Модель умеет предсказывать будущее состояние визуального мира, используя текст и видео. Cosmos разработан для ускорения обучения моделей, которые понимают физику, среду и действия — от автономных автомобилей до роботов. Выглядит очень интересно.
Это самое мощное поколение моделей в экосистеме Cosmos. Модель заметно улучшена по сравнению с Predict1:
🎯 лучшее качество видео
🧠 точнее соответствует текстовому описанию
🎥 более реалистичная динамика движения
📊 Cosmos-Predict2 превосходит другие open-source видео foundation-модели.
▪ Веса
▪ Полный код для инференса и обучения (с туториалами)
@ai_machinelearning_big_data
#Cosmos #NVIDIA
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 NVIDIA ежегодно обновляет инфраструктуру для ИИ, выводя производительность инференса на новый уровень — от чипов до систем и программного обеспечения.
NVIDIA Blackwell — передовая AI-платформа на рынке:
• Лидерство в скорости инференса и точности
• Поддержка популярных моделей: DeepSeek-R1, Llama 3.1 405B, Llama 3.3 70B и другие
• Второе поколение Transformer Engine с поддержкой FP4
• TensorRT Model Optimizer для квантования моделей в FP4
С помощью NVFP4 и TensorRT Model Optimizer Blackwell способен запускать самые сложные open-source модели с выдающейся точностью.
Именно это делает Blackwell самой мощной платформой для инференса, созданной на сегодняшний день. 🙌
NVIDIA Blackwell — передовая AI-платформа на рынке:
• Лидерство в скорости инференса и точности
• Поддержка популярных моделей: DeepSeek-R1, Llama 3.1 405B, Llama 3.3 70B и другие
• Второе поколение Transformer Engine с поддержкой FP4
• TensorRT Model Optimizer для квантования моделей в FP4
С помощью NVFP4 и TensorRT Model Optimizer Blackwell способен запускать самые сложные open-source модели с выдающейся точностью.
Именно это делает Blackwell самой мощной платформой для инференса, созданной на сегодняшний день. 🙌
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
📄 Dolphin — новая OCR модель ByteDance для понимания сложных документов в виде изображений
Dolphin — это мультимодальная модель, которая умеет разбирать сканы и фотографии документов, включая текст, таблицы, формулы и графики.
Подойдет для автоматизации чтения и структурирования PDF-файлов, отсканированных отчётов и научных статей.
Как работает модель:
1️⃣ Анализ страницы — модель определяет порядок элементов доцентов так, как читает человек
2️⃣ Разбор содержимого — параллельно обрабатываются абзацы, таблицы, формулы и другие элементы, используя специальные встроенные промпты
Архитектура:
• Визуальный энкодер — Swin Transformer
• Текстовый декодер — MBart
• Управление через промпты
📌 Возможности:
• Постраничная обработка документа
• Точечный парсинг отдельных элементов (например, таблиц)
• Высокая точность и скорость работы модели
• Открытая MIT-лицензия
Установка:
• Github
• HF
• Demo
@ai_machinelearning_big_data
#ocr #ByteDance
Dolphin — это мультимодальная модель, которая умеет разбирать сканы и фотографии документов, включая текст, таблицы, формулы и графики.
Подойдет для автоматизации чтения и структурирования PDF-файлов, отсканированных отчётов и научных статей.
Как работает модель:
1️⃣ Анализ страницы — модель определяет порядок элементов доцентов так, как читает человек
2️⃣ Разбор содержимого — параллельно обрабатываются абзацы, таблицы, формулы и другие элементы, используя специальные встроенные промпты
Архитектура:
• Визуальный энкодер — Swin Transformer
• Текстовый декодер — MBart
• Управление через промпты
📌 Возможности:
• Постраничная обработка документа
• Точечный парсинг отдельных элементов (например, таблиц)
• Высокая точность и скорость работы модели
• Открытая MIT-лицензия
Установка:
git clone https://github.com/ByteDance/Dolphin.git
cd Dolphin
• Github
• HF
• Demo
@ai_machinelearning_big_data
#ocr #ByteDance
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Модель заточена и оптимизирована для интеграции с Model Context Protocol (MCP).
📊 На SimpleQA (agentic / MCP) — Jan-nano набирает 80.7
Это серьёзный результат для модели такого размера!
Модель работает через Jan — open-source альтернативу ChatGPT, которая запускается локально.
🔍 Jan-nano — ещё один пример того, как компактные модели могут конкурировать с большими моделями благодаря обучению и агентной архитектуре.
▪ HF: https://huggingface.co/Menlo/Jan-nano
@ai_machinelearning_big_data
#LLM #JanNano #MCP #OpenSourceAI
Please open Telegram to view this post
VIEW IN TELEGRAM
🐈 Cheshire Cat — фреймворк для создания AI-агентов как микросервисов. Этот проект предлагает необычный подход к интеграции ИИ в приложения — через API и WebSocket. В отличие от многих решений, здесь сразу заложена поддержка RAG, мультипользовательского доступа и системы плагинов.
Разработчики сделали ставку на модульность: к фреймворку можно подключить любую языковую модель через LangChain, а админ-панель позволяет гибко настраивать агента. Для тестирования достаточно Docker-образа, что упрощает первый запуск.
🤖 GitHub
@bigdatai
Разработчики сделали ставку на модульность: к фреймворку можно подключить любую языковую модель через LangChain, а админ-панель позволяет гибко настраивать агента. Для тестирования достаточно Docker-образа, что упрощает первый запуск.
🤖 GitHub
@bigdatai
Media is too big
VIEW IN TELEGRAM
Лекс Фридман беседует с Терренсом Тао — одним из гениев современной математики.
🖼️ Генерация изображений от ChatGPT теперь доступна прямо в WhatsApp!
OpenAI запустила поддержку картинок через номер:
📲 1‑800‑ChatGPT (https://wa.me/18002428478)
Теперь любой пользователь WhatsApp может:
• Отправить текстовый запрос
• Получить сгенерированное изображение от ChatGPT
• Общаться с ИИ в удобном мессенджере
🎨 Поддерживается и текст, и картинки — доступно для всех без ограничений.
Попробуй прямо сейчас: https://wa.me/18002428478
#ChatGPT #WhatsApp #AIimages #OpenAI #нейросети
OpenAI запустила поддержку картинок через номер:
📲 1‑800‑ChatGPT (https://wa.me/18002428478)
Теперь любой пользователь WhatsApp может:
• Отправить текстовый запрос
• Получить сгенерированное изображение от ChatGPT
• Общаться с ИИ в удобном мессенджере
🎨 Поддерживается и текст, и картинки — доступно для всех без ограничений.
Попробуй прямо сейчас: https://wa.me/18002428478
#ChatGPT #WhatsApp #AIimages #OpenAI #нейросети
🌐 V-JEPA 2: как ИИ обучается понимать физический мир.
Разработчики представили новую версию своей "модели мира" — V-JEPA 2, которая учится предсказывать развитие событий, анализируя видео. Система уже обработала более 1 миллиона часов видеозаписей, чтобы понимать базовые физические законы вроде гравитации или причинно-следственных связей.
Подход отличается от традиционного машинного обучения, ведь модель не просто запоминает данные, а пытается выстроить внутреннее представление о том, как устроен мир. Разработчики утверждают, что V-JEPA 2 в 30 раз быстрее аналога от Nvidia, но пока неясно, как именно сравнивались производительность.
🔗 Ссылка - *клик*
Разработчики представили новую версию своей "модели мира" — V-JEPA 2, которая учится предсказывать развитие событий, анализируя видео. Система уже обработала более 1 миллиона часов видеозаписей, чтобы понимать базовые физические законы вроде гравитации или причинно-следственных связей.
Подход отличается от традиционного машинного обучения, ведь модель не просто запоминает данные, а пытается выстроить внутреннее представление о том, как устроен мир. Разработчики утверждают, что V-JEPA 2 в 30 раз быстрее аналога от Nvidia, но пока неясно, как именно сравнивались производительность.
🔗 Ссылка - *клик*
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
📚 ArXiv Research Agent — отличный помощник для научных исследований.
Агент самостоятельно:
• Найдёт релевантные статьи с arXiv, bioRxiv, medRxiv и Semantic Scholar
• Проведёт полноценный литературный обзор
• Покажет, что упущено, и предложит, что добавить
• Даст инсайты и цитаты из миллионов научных работ
• Генерирует готовые конспекты
И др.
Вскоре обещают добавить поддержку MCP.
🔜 Попробовать: https://www.alphaxiv.org/assistant
@ai_machinelearning_big_data
#agent #ArXiv #ai #ml
Агент самостоятельно:
• Найдёт релевантные статьи с arXiv, bioRxiv, medRxiv и Semantic Scholar
• Проведёт полноценный литературный обзор
• Покажет, что упущено, и предложит, что добавить
• Даст инсайты и цитаты из миллионов научных работ
• Генерирует готовые конспекты
И др.
Вскоре обещают добавить поддержку MCP.
@ai_machinelearning_big_data
#agent #ArXiv #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Что делает Яндекс с базами данных после ухода западных решений? В коротком интервью КОДу — ясные тезисы от Леонида Савченкова, который в Яндекс Клауде отвечает за архитектуру платформы данных.
Фокус — надёжность и масштабируемость. Для Postgres делают собственное шардирование (pg-sharding.tech), всего в Платформе данных уже более 20 различных сервисов, из которых можно собрать практически все возможные варианты их хранения, обработки и анализа.
После закрытия open-source Greenplum Яндекс продолжает поддерживать 6-ю версию, но главное — активно развивает Cloudberry. Проект живёт, входит в Apache Software Foundation, и Яндекс туда регулярно коммитит. По функциональности Cloudberry уже догнал Greenplum 7.
На Data&ML Conf показали апдейты BI-платформы DataLens: публичные дашборды, JavaScript-контроль визуализаций, сертификация аналитиков. А ещё — управляемая версия YTsaurus, способная обрабатывать эксабайты данных.
Интервью — по делу. Без витрин и маркетинга.
Фокус — надёжность и масштабируемость. Для Postgres делают собственное шардирование (pg-sharding.tech), всего в Платформе данных уже более 20 различных сервисов, из которых можно собрать практически все возможные варианты их хранения, обработки и анализа.
После закрытия open-source Greenplum Яндекс продолжает поддерживать 6-ю версию, но главное — активно развивает Cloudberry. Проект живёт, входит в Apache Software Foundation, и Яндекс туда регулярно коммитит. По функциональности Cloudberry уже догнал Greenplum 7.
На Data&ML Conf показали апдейты BI-платформы DataLens: публичные дашборды, JavaScript-контроль визуализаций, сертификация аналитиков. А ещё — управляемая версия YTsaurus, способная обрабатывать эксабайты данных.
Интервью — по делу. Без витрин и маркетинга.
🎓 MCP for Beginners — курс для старта с MCP с нуля
🔥 10 практических лабораторных работ
🌍 Доступен на 40+ языках мира
💻 Примеры на .NET, Java, TypeScript, JavaScript и Python
🛠 Используется VS Code, всё просто и наглядно
Идеально для новичков, чтобы быстро разобраться в основах MCP.
🔗 Начни сейчас: https://github.com/microsoft/mcp-for-beginners/
🔥 10 практических лабораторных работ
🌍 Доступен на 40+ языках мира
💻 Примеры на .NET, Java, TypeScript, JavaScript и Python
🛠 Используется VS Code, всё просто и наглядно
Идеально для новичков, чтобы быстро разобраться в основах MCP.
🔗 Начни сейчас: https://github.com/microsoft/mcp-for-beginners/
🦍 Gorilla — когда языковые модели учатся работать с API. Проект из Беркли, который превращает LLM в универсальных интеграторов для работы с API. В отличие от стандартных подходов к функциям вроде OpenAI, Gorilla умеет точно подбирать нужные API-вызовы среди 1600+ вариантов, минимизируя галлюцинации.
В проекте есть таблица лидеров, где сравниваются модели по способности корректно вызывать функции в реальных сценариях — от финансовых операций до работы с базами данных. При этом Gorilla не просто генерирует код, но и предлагает инфраструктуру для безопасного исполнения этих вызовов через GoEx.
🤖 GitHub
@bigdatai
В проекте есть таблица лидеров, где сравниваются модели по способности корректно вызывать функции в реальных сценариях — от финансовых операций до работы с базами данных. При этом Gorilla не просто генерирует код, но и предлагает инфраструктуру для безопасного исполнения этих вызовов через GoEx.
🤖 GitHub
@bigdatai
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🎧 MiniMax продолжают жечь и выпускают генератор речи
🧁 Voice Design — продвинутая кастомизация генерации голоса:
• Позволяет задавать текст, голос, тон, эмоции, можно клонировать голос.
• Продвинутая кастомизация и мультиязычная поддержка
Попробовать можно здесь →https://minimax.io/audio
@ai_machinelearning_big_data
#audio #ai #ml #MiniMax
🧁 Voice Design — продвинутая кастомизация генерации голоса:
• Позволяет задавать текст, голос, тон, эмоции, можно клонировать голос.
• Продвинутая кастомизация и мультиязычная поддержка
Попробовать можно здесь →https://minimax.io/audio
@ai_machinelearning_big_data
#audio #ai #ml #MiniMax
🤖 Реализация SLAM в в ROS 2 (Robot Operating System 2) с использованием Husarion ROSbot и slam_toolbox
Данный гайд демонстрирует, как реализовать систему SLAM (Simultaneous Localization and Mapping) в ROS 2 с применением LiDAR, одометрии и пакета
🔧 Необходимые компоненты:
• Аппаратная платформа ROSbot 2R / 2 PRO / XL с установленным LiDAR
• Среда с установленным ROS 2 и RViz2
• Docker и подготовленные контейнеры:
• Базовые знания ROS 2, работы с топиками и RViz
📦 Шаг 1. Запуск SLAM в симуляции
Запуск симуляции с интеграцией SLAM:
После запуска:
• Визуализируйте данные
• Перемещайте робота по среде — карта будет строиться автоматически
🗺 Шаг 2. Сохранение карты
Для сохранения построенной карты используйте
Результатом будут два файла:
•
•
📍 Шаг 3. Локализация на сохранённой карте
Отключив SLAM, запустите локализацию с помощью AMCL:
В RViz:
• Используйте инструмент 2D Pose Estimate для задания начальной позиции
• Локализация будет уточняться в процессе движения за счёт алгоритма AMCL
✅ Результат:
• Полноценная система SLAM с сохранением карты
• Работающая локализация на основе ранее полученной карты
• Понимание архитектуры ROS 2 SLAM-пайплайна с использованием
🔗 Урок
Данный гайд демонстрирует, как реализовать систему SLAM (Simultaneous Localization and Mapping) в ROS 2 с применением LiDAR, одометрии и пакета
slam_toolbox
. Цель — построение карты окружающей среды и локализация мобильного робота в ней.🔧 Необходимые компоненты:
• Аппаратная платформа ROSbot 2R / 2 PRO / XL с установленным LiDAR
• Среда с установленным ROS 2 и RViz2
• Docker и подготовленные контейнеры:
rosbot
, ros-master
, rplidar
• Базовые знания ROS 2, работы с топиками и RViz
📦 Шаг 1. Запуск SLAM в симуляции
Запуск симуляции с интеграцией SLAM:
docker compose up -d rosbot ros-master rplidar
ros2 launch tutorial_pkg slam.launch use_gazebo:=true
После запуска:
• Визуализируйте данные
/scan
и /map
в RViz • Перемещайте робота по среде — карта будет строиться автоматически
🗺 Шаг 2. Сохранение карты
Для сохранения построенной карты используйте
map_saver_cli
:
roscd tutorial_pkg
mkdir maps && cd maps
ros2 run map_server map_saver_cli --free 0.15 --fmt png -f map
Результатом будут два файла:
•
map.pgm
— изображение карты •
map.yaml
— описание параметров карты📍 Шаг 3. Локализация на сохранённой карте
Отключив SLAM, запустите локализацию с помощью AMCL:
ros2 launch tutorial_pkg localization.launch use_gazebo:=true
В RViz:
• Используйте инструмент 2D Pose Estimate для задания начальной позиции
• Локализация будет уточняться в процессе движения за счёт алгоритма AMCL
✅ Результат:
• Полноценная система SLAM с сохранением карты
• Работающая локализация на основе ранее полученной карты
• Понимание архитектуры ROS 2 SLAM-пайплайна с использованием
slam_toolbox
, map_server
и amcl
🔗 Урок
🤖 Google отдала Agent2Agent сообществу — AI-агенты учатся работать вместе
Google Cloud передала свой протокол Agent2Agent (A2A) в Linux Foundation.
Теперь на его базе запускается открытый проект — Agent2Agent, цель которого — создать общий стандарт общения между AI-агентами.
📡 Что это значит:
• ИИ-агенты от разных компаний смогут взаимодействовать между собой
• Создаётся единая экосистема, как HTTP — но для ИИ
• Это упрощает интеграцию, совместную работу и развитие автономных систем
👥 К проекту уже присоединились:
Google, Microsoft, AWS, Cisco, Salesforce, SAP, ServiceNow
🔗 Подробнее
Google Cloud передала свой протокол Agent2Agent (A2A) в Linux Foundation.
Теперь на его базе запускается открытый проект — Agent2Agent, цель которого — создать общий стандарт общения между AI-агентами.
📡 Что это значит:
• ИИ-агенты от разных компаний смогут взаимодействовать между собой
• Создаётся единая экосистема, как HTTP — но для ИИ
• Это упрощает интеграцию, совместную работу и развитие автономных систем
👥 К проекту уже присоединились:
Google, Microsoft, AWS, Cisco, Salesforce, SAP, ServiceNow
🔗 Подробнее