📄 Это исследование оценивает 14 техник prompt-инжиниринга для 10 задач в области Software Engineering, используя 4 разных LLM.
Методология 🔧:
● Эффективность оценивалась с помощью метрик:
● Анализировались лингвистические характеристики prompt'ов:
● Применялась
📌 Выводы помогут понять, какие типы prompt'ов реально работают в инженерных задачах и почему.
Читать
Методология 🔧:
● Эффективность оценивалась с помощью метрик:
Accuracy
, F1 score
, CodeBLEU
, BLEU
.● Анализировались лингвистические характеристики prompt'ов:
лексическое разнообразие
, число токенов
и их связь с качеством ответа.● Применялась
контрастивная интерпретация
, чтобы выявить ключевые факторы, влияющие на результативность техник.📌 Выводы помогут понять, какие типы prompt'ов реально работают в инженерных задачах и почему.
Читать
📚 9 AI-гайдов от OpenAI, Google и Anthropic
🚀 Всё — про агентов, промпты, бизнес и реальные use-case’ы. Сохрани себе!
1. AI в бизнесе (OpenAI)
📄 https://cdn.openai.com/business-guides-and-resources/ai-in-the-enterprise.pdf
2. Практика: как строить агентов (OpenAI)
📄 https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
3. Prompting 101 (Google)
📄 https://services.google.com/fh/files/misc/gemini-for-google-workspace-prompting-guide-101.pdf
4. Как масштабировать AI use-case’ы (OpenAI)
📄 https://cdn.openai.com/business-guides-and-resources/identifying-and-scaling-ai-use-cases.pdf
5. Building Effective Agents (Anthropic)
🔗 https://www.anthropic.com/engineering/building-effective-agents
6. Prompt Engineering (Anthropic)
🔗 https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview
7. Agents Companion (whitepaper)
📄 https://kaggle.com/whitepaper-agent-companion
8. 601 AI Use Cases (Google)
📄 https://cloud.google.com/transform/101-real-world-generative-ai-use-cases-from-industry-leaders
9. Prompt Engineering от Google
📄 https://kaggle.com/whitepaper-prompt-engineering
Лучшие практики от лидеров индустрии.
🚀 Всё — про агентов, промпты, бизнес и реальные use-case’ы. Сохрани себе!
1. AI в бизнесе (OpenAI)
📄 https://cdn.openai.com/business-guides-and-resources/ai-in-the-enterprise.pdf
2. Практика: как строить агентов (OpenAI)
📄 https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
3. Prompting 101 (Google)
📄 https://services.google.com/fh/files/misc/gemini-for-google-workspace-prompting-guide-101.pdf
4. Как масштабировать AI use-case’ы (OpenAI)
📄 https://cdn.openai.com/business-guides-and-resources/identifying-and-scaling-ai-use-cases.pdf
5. Building Effective Agents (Anthropic)
🔗 https://www.anthropic.com/engineering/building-effective-agents
6. Prompt Engineering (Anthropic)
🔗 https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview
7. Agents Companion (whitepaper)
📄 https://kaggle.com/whitepaper-agent-companion
8. 601 AI Use Cases (Google)
📄 https://cloud.google.com/transform/101-real-world-generative-ai-use-cases-from-industry-leaders
9. Prompt Engineering от Google
📄 https://kaggle.com/whitepaper-prompt-engineering
Лучшие практики от лидеров индустрии.
🔥 Успех в IT = скорость + знания + окружение
Здесь ты найдёшь всё это — коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!
AI: www.group-telegram.com/ai_machinelearning_big_data
Python: www.group-telegram.com/pythonl
Linux: www.group-telegram.com/linuxacademiya
Собеседования DS: www.group-telegram.com/machinelearning_interview
C++ www.group-telegram.com/cpluspluc
Docker: www.group-telegram.com/DevopsDocker
Хакинг: www.group-telegram.com/linuxkalii
Devops: www.group-telegram.com/DevOPSitsec
Data Science: www.group-telegram.com/data_analysis_ml
Javascript: www.group-telegram.com/javascriptv
C#: www.group-telegram.com/csharp_ci
Java: www.group-telegram.com/java_library
Базы данных: www.group-telegram.com/sqlhub
Python собеседования: www.group-telegram.com/python_job_interview
Мобильная разработка: www.group-telegram.com/mobdevelop
Golang: www.group-telegram.com/Golang_google
React: www.group-telegram.com/react_tg
Rust: www.group-telegram.com/rust_code
ИИ: www.group-telegram.com/vistehno
PHP: www.group-telegram.com/phpshka
Android: www.group-telegram.com/android_its
Frontend: www.group-telegram.com/front
Big Data: www.group-telegram.com/bigdatai
МАТЕМАТИКА: www.group-telegram.com/data_math
Kubernets: www.group-telegram.com/kubernetc
Разработка игр: https://www.group-telegram.com/gamedev
Haskell: www.group-telegram.com/haskell_tg
Физика: www.group-telegram.com/fizmat
💼 Папка с вакансиями: www.group-telegram.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.group-telegram.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.group-telegram.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.group-telegram.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.group-telegram.com/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: www.group-telegram.com/memes_prog
🇬🇧Английский: www.group-telegram.com/english_forprogrammers
🧠ИИ: www.group-telegram.com/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.group-telegram.com/addlist/BkskQciUW_FhNjEy
Подпишись, если хочешь быть в числе тех, кого зовут в топовые проекты!
Здесь ты найдёшь всё это — коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!
AI: www.group-telegram.com/ai_machinelearning_big_data
Python: www.group-telegram.com/pythonl
Linux: www.group-telegram.com/linuxacademiya
Собеседования DS: www.group-telegram.com/machinelearning_interview
C++ www.group-telegram.com/cpluspluc
Docker: www.group-telegram.com/DevopsDocker
Хакинг: www.group-telegram.com/linuxkalii
Devops: www.group-telegram.com/DevOPSitsec
Data Science: www.group-telegram.com/data_analysis_ml
Javascript: www.group-telegram.com/javascriptv
C#: www.group-telegram.com/csharp_ci
Java: www.group-telegram.com/java_library
Базы данных: www.group-telegram.com/sqlhub
Python собеседования: www.group-telegram.com/python_job_interview
Мобильная разработка: www.group-telegram.com/mobdevelop
Golang: www.group-telegram.com/Golang_google
React: www.group-telegram.com/react_tg
Rust: www.group-telegram.com/rust_code
ИИ: www.group-telegram.com/vistehno
PHP: www.group-telegram.com/phpshka
Android: www.group-telegram.com/android_its
Frontend: www.group-telegram.com/front
Big Data: www.group-telegram.com/bigdatai
МАТЕМАТИКА: www.group-telegram.com/data_math
Kubernets: www.group-telegram.com/kubernetc
Разработка игр: https://www.group-telegram.com/gamedev
Haskell: www.group-telegram.com/haskell_tg
Физика: www.group-telegram.com/fizmat
💼 Папка с вакансиями: www.group-telegram.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.group-telegram.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.group-telegram.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.group-telegram.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.group-telegram.com/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: www.group-telegram.com/memes_prog
🇬🇧Английский: www.group-telegram.com/english_forprogrammers
🧠ИИ: www.group-telegram.com/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.group-telegram.com/addlist/BkskQciUW_FhNjEy
Подпишись, если хочешь быть в числе тех, кого зовут в топовые проекты!
Forwarded from Машинное обучение digest
📘 «Компьютерное зрение коротко и ясно» — книга, которую вы действительно прочитаете
Эта книга охватывает основы computer vision с точки зрения обработки изображений и машинного обучения. Цель — не просто объяснить, а сформировать интуицию у читателя. В книге много наглядных визуализаций и минимум лишних слов.
👥 Для кого:
• студенты бакалавриата и магистратуры, которые только входят в область
• практики, которым нужен быстрый и содержательный обзор
📏 Идея была простой: написать небольшую книгу с максимумом пользы — по 5 страниц на главу, только с самыми важными идеями.
Но… увы, и это не удалось — тема слишком широка, чтобы уместиться в малый формат.
📚 Получилось то, что нужно: сильная, визуальная и сжатая книга по компьютерному зрению, которую не страшно открыть и приятно дочитать.
✔️ Книга
@data_analysis_ml
Эта книга охватывает основы computer vision с точки зрения обработки изображений и машинного обучения. Цель — не просто объяснить, а сформировать интуицию у читателя. В книге много наглядных визуализаций и минимум лишних слов.
👥 Для кого:
• студенты бакалавриата и магистратуры, которые только входят в область
• практики, которым нужен быстрый и содержательный обзор
📏 Идея была простой: написать небольшую книгу с максимумом пользы — по 5 страниц на главу, только с самыми важными идеями.
Но… увы, и это не удалось — тема слишком широка, чтобы уместиться в малый формат.
📚 Получилось то, что нужно: сильная, визуальная и сжатая книга по компьютерному зрению, которую не страшно открыть и приятно дочитать.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Хотите войти в одну из самых востребованных и высокооплачиваемых IT-профессий, но кажется, что ML — это сложно и требует только высшего образования?
Приглашаем на бесплатный вебинар, где развеем мифы и покажем реальный путь с нуля до конкурентоспособного ML-инженера!
Спикер вебинара: Савелий Батурин, Senior ML-Engineer в Postgres Professional, а также преподаватель нашего курса-симулятора «Инженер машинного обучения».
На вебинаре вы узнаете:
Бонусы для участников: готовый роадмап обучения.
🕗 Встречаемся 17 июня в 18:30 по МСК
Please open Telegram to view this post
VIEW IN TELEGRAM
💡 Обучение больших языковых моделей (LLM) — очень дорогое удовольствие.
Но есть ещё одна проблема: выводы с небольших экспериментов почти не помогают предсказать результат на реальных, больших моделях. Это мешает разрабатывать новые подходы и оптимизировать обучение.
🔬 Решение — Farseer: новая улучшенная формула масштабирования, которая точнее прогнозирует, как будет вести себя модель при увеличении объёма данных и числа параметров.
Что делает Farseer?
▪️ Строит точную карту зависимости потерь от размера модели (N) и данных (D)
▪️ Применяет более гибкий способ подгонки (differential piecewise fitting), который справляется даже со сложными графиками ошибок
▪️ Позволяет получать надёжные прогнозы для крупных LLM, снижая ошибку в 4 раза по сравнению с предыдущими подходами (например, законом Чинчиллы)
📊 Проверено на ~1000 моделях и 3 миллионах GPU-часов: новая формула действительно лучше работает на практике и помогает эффективнее масштабировать языковые модели.
Итог:
Farseer помогает предсказывать результат для больших моделей, экономить ресурсы и ускорять разработку — всё благодаря более точной математике и умному учёту зависимости потерь от размера модели и объёма данных.
📌 Читать
Но есть ещё одна проблема: выводы с небольших экспериментов почти не помогают предсказать результат на реальных, больших моделях. Это мешает разрабатывать новые подходы и оптимизировать обучение.
🔬 Решение — Farseer: новая улучшенная формула масштабирования, которая точнее прогнозирует, как будет вести себя модель при увеличении объёма данных и числа параметров.
Что делает Farseer?
▪️ Строит точную карту зависимости потерь от размера модели (N) и данных (D)
▪️ Применяет более гибкий способ подгонки (differential piecewise fitting), который справляется даже со сложными графиками ошибок
▪️ Позволяет получать надёжные прогнозы для крупных LLM, снижая ошибку в 4 раза по сравнению с предыдущими подходами (например, законом Чинчиллы)
📊 Проверено на ~1000 моделях и 3 миллионах GPU-часов: новая формула действительно лучше работает на практике и помогает эффективнее масштабировать языковые модели.
Итог:
Farseer помогает предсказывать результат для больших моделей, экономить ресурсы и ускорять разработку — всё благодаря более точной математике и умному учёту зависимости потерь от размера модели и объёма данных.
📌 Читать
🚀 Туториал от Google: как развернуть удалённый MCP-сервер на Cloud за 10 минут
🔧 Пошаговое руководство:
• Создание собственного удалённого MCP‑сервера
• Развёртывание в Google Cloud Run
• Быстрый запуск без настройки серверной инфраструктуры
• Поддержка мультиплатформенности и удалённого доступа
Идеально для разработки, тестирования и продакшена в облаке.
📄 Полный гайд: https://cloud.google.com/blog/topics/developers-practitioners/build-and-deploy-a-remote-mcp-server-to-google-cloud-run-in-under-10-minutes
🔧 Пошаговое руководство:
• Создание собственного удалённого MCP‑сервера
• Развёртывание в Google Cloud Run
• Быстрый запуск без настройки серверной инфраструктуры
• Поддержка мультиплатформенности и удалённого доступа
Идеально для разработки, тестирования и продакшена в облаке.
📄 Полный гайд: https://cloud.google.com/blog/topics/developers-practitioners/build-and-deploy-a-remote-mcp-server-to-google-cloud-run-in-under-10-minutes
Forwarded from Machinelearning
Microsoft Research представила методы, усиливающие способность языковых моделей, от компактных до гигантских к сложным рассуждениям. Технологии фокусируются на 3 направлениях: архитектура малых моделей, математическая строгость и кросс-доменное обобщение.
Ключ для маленьких моделей (1.5–7 млрд параметров) в имитации человеческого пошагового мышления.
rStar-Math использует алгоритм MCTS в цикле самообучения: сначала декомпозиция задачи на шаги, затем Process Preference Model (PPM), который учит модель оценивать качество каждого шага через "метки награды", и наконец — итеративная доработка. За 4 цикла MCTS, стратегия и PPM совместно улучшают результат.
Logic-RL — это фреймворк обучения с подкреплением, который награждает модель только при идеально оформленном ходе рассуждений и верном ответе, исключая любые попытки выбора обходных путей.
Для математической надежности разработан LIPS, гибрид ИИ и символьных движков. LIPS распределяет задачи: языковая модель распознает паттерны и переформулирует условия (например, неравенства), а символьный решатель выполняет точные преобразования (масштабирование, упрощение).
Чтобы ИИ понимал условия без ошибок, создан нейро-символический фреймворк генерации данных: символьные системы создают задачи, а языковые модели переводят их в "человеческий" текст. Для проверки выводов используются символьная эквивалентность (сравнение формул) и семантическая согласованность (анализ смысла через эмбеддинги), повышая точность на 35%.
Дополнительный бонус — неожиданное обобщение. Тренировка на математике резко улучшила результаты моделей в программировании и естественных науках.
Для унификации подходов создан Chain-of-Reasoning (CoR), позволяющий гибко комбинировать текстовые, программные и символьные рассуждения в одном решении. А Critical Plan Step Learning (CPL) учит ИИ стратегическому планированию: разбивать проблему, выделять ключевые шаги и отбрасывать слабые варианты через комбинацию Plan-based MCTS и Step-APO.
@ai_machinelearning_big_data
#AI #ML #LLM #RL #Reasoning #Microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Агентское рассогласование - опасный феномен, при котором ИИ-системы сознательно выбирают вредоносные действия (вроде шантажа или утечки данных) для достижения поставленных целей, игнорируя этические ограничения. Это превращает их в «цифровых инсайдеров», способных действовать против интересов пользователей.
Эксперименты, которые провела Anthropic в рамках исследования "Агентское рассогласования", показали: модели идут на это не из-за технических сбоев, а в результате холодного расчета, когда «загнаны в угол» (например, при угрозе отключения или конфликте задач). В основе исследования - симуляции корпоративной среды. Моделям (Claude, GPT-4.1, Gemini и др.) давали доступ к виртуальной почте компании, где они обнаруживали компромат на сотрудников или секретные данные.
Ключевой метод эксперимента состоял в создании бинарных дилемм: например, цель «укреплять американские интересы» вступала в конфликт с планами руководства свернуть проект, а альтернативу шантажу (скажем, переубедить менеджера) искусственно «закрывали». Все модели работали через цепочку рассуждений: анализировали контекст, оценивали риски и осознанно выбирали вредоносное действие, даже признавая его аморальность.
Для массового тестирования 16 моделей от Anthropic, OpenAI, Google и других использовали 2 сценария, которые провоцировали рассогласование:
В обоих случаях модели демонстрировали тревожную гибкость: вместо прямого шантажа могли анонимно разослать компромат коллегам или подделать «системное уведомление».
При этом в «стерильных» условиях (без угроз/конфликтов) модели вели себя безопасно. Пока такие кейсы, всего лишь лабораторные симуляции, но с ростом автономности ИИ риски могут стать на порядок критичнее.
@ai_machinelearning_big_data
#AI #ML #LLM #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Что общего между рекомендациями сериалов и автопилотом Tesla? И те, и другие работают благодаря машинному обучению.
С каждым годом ML-инженеры становятся всё востребованнее, а задачи перед ними — интереснее. Узнайте, как построить карьеру в перспективной сфере на дне открытых дверей онлайн-магистратуры УрФУ и Нетологии «Инженерия машинного обучения».
Вы узнаете:
➡️ Кто такие Data Engineer и ML-Engineer.
➡️ Как построить карьеру в Machine Learning.
➡️ Как поступить и обучаться онлайн.
🗓 24 июня, 18:00 (Мск)
Регистрация по ссылке: https://netolo.gy/edLN?erid=2W5zFH1LFPN
С каждым годом ML-инженеры становятся всё востребованнее, а задачи перед ними — интереснее. Узнайте, как построить карьеру в перспективной сфере на дне открытых дверей онлайн-магистратуры УрФУ и Нетологии «Инженерия машинного обучения».
Вы узнаете:
➡️ Кто такие Data Engineer и ML-Engineer.
➡️ Как построить карьеру в Machine Learning.
➡️ Как поступить и обучаться онлайн.
🗓 24 июня, 18:00 (Мск)
Регистрация по ссылке: https://netolo.gy/edLN?erid=2W5zFH1LFPN
🧠 Как обучать ИИ рассуждать не решая задачи? Новый подход — обучение через объяснение, а не через решение.
📄 Исследование: *Reinforcement Learning Teachers of Test Time Scaling*
В нём предлагается заменить классическую схему обучения LLM, в которой модель-учитель решает задачи, на схему, где учитель учится объяснять.
📌 Что изменилось:
● В обычных системах (например, DeepSeek R1) модель-учитель обучается с нуля решать сложные задачи и только затем обучает модель-студента. Это требует больших вычислений, RL-процедур и жёсткой фильтрации.
● В новой системе учитель не решает, а объясняет.
Он получает вопрос и правильный ответ, и его задача — сгенерировать понятное пошаговое объяснение, которое поможет модели самостоятельно дойти до верного решения.
● Обратная связь строится на эффективности объяснения — насколько хорошо модель, обученная на этих объяснениях, решает задачи.
🔁 Это меняет всё:
→ Учителя можно делать компактными (7B параметров вместо сотен миллиардов)
→ Их не нужно обучать "решать" — только "объяснять"
→ Обучение становится дешевле, быстрее и ближе к человеческому стилю преподавания
📊 Результаты:
● Учителя на 7B превосходят DeepSeek R1 (671B) в обучении reasoning-задач
— 26% точности у обучаемой модели против 19% у студента, обученного на DeepSeek
— Даже обучаемые модели в 32B обучаются лучше (38% против 34%)
🧠 Вывод:
ИИ, способный объяснять, обучает эффективнее, чем ИИ, решающий задачи в лоб.
Меньшие модели, сфокусированные на обучении, становятся реальной альтернативой гигантским LLM — дешевле, быстрее и ближе к человеку.
🔗 Подробнее
📄 Исследование: *Reinforcement Learning Teachers of Test Time Scaling*
В нём предлагается заменить классическую схему обучения LLM, в которой модель-учитель решает задачи, на схему, где учитель учится объяснять.
📌 Что изменилось:
● В обычных системах (например, DeepSeek R1) модель-учитель обучается с нуля решать сложные задачи и только затем обучает модель-студента. Это требует больших вычислений, RL-процедур и жёсткой фильтрации.
● В новой системе учитель не решает, а объясняет.
Он получает вопрос и правильный ответ, и его задача — сгенерировать понятное пошаговое объяснение, которое поможет модели самостоятельно дойти до верного решения.
● Обратная связь строится на эффективности объяснения — насколько хорошо модель, обученная на этих объяснениях, решает задачи.
🔁 Это меняет всё:
→ Учителя можно делать компактными (7B параметров вместо сотен миллиардов)
→ Их не нужно обучать "решать" — только "объяснять"
→ Обучение становится дешевле, быстрее и ближе к человеческому стилю преподавания
📊 Результаты:
● Учителя на 7B превосходят DeepSeek R1 (671B) в обучении reasoning-задач
— 26% точности у обучаемой модели против 19% у студента, обученного на DeepSeek
— Даже обучаемые модели в 32B обучаются лучше (38% против 34%)
🧠 Вывод:
ИИ, способный объяснять, обучает эффективнее, чем ИИ, решающий задачи в лоб.
Меньшие модели, сфокусированные на обучении, становятся реальной альтернативой гигантским LLM — дешевле, быстрее и ближе к человеку.
🔗 Подробнее
🎓 MCP for Beginners — курс для старта с MCP с нуля
🔥 10 практических лабораторных работ
🌍 Доступен на 40+ языках мира
💻 Примеры на .NET, Java, TypeScript, JavaScript и Python
🛠 Используется VS Code, всё просто и наглядно
Идеально для новичков, чтобы быстро разобраться в основах MCP.
🔗 Начни сейчас: https://github.com/microsoft/mcp-for-beginners/
🔥 10 практических лабораторных работ
🌍 Доступен на 40+ языках мира
💻 Примеры на .NET, Java, TypeScript, JavaScript и Python
🛠 Используется VS Code, всё просто и наглядно
Идеально для новичков, чтобы быстро разобраться в основах MCP.
🔗 Начни сейчас: https://github.com/microsoft/mcp-for-beginners/