С появлением ChatGPT активность на Stack Overflow снизилась, но характер вопросов сильно изменился.
Учёные проанализировали данные за 2 года и сравнили активность до и после запуска ChatGPT.
Они измеряли длину постов, объём кода, просмотры и оценки, а также оценивали уровень сложности вопросов (лёгкие, средние, сложные).
- В цлеом, общее число вопросов продолжает снижаться.
- Лёгких вопросов становится меньше.
- Вопросов среднего уровня стало больше .
- Сложные остаются примерно на том же уровне.
- Простые вопросы люди теперь задают ChatGPT.
- На Stack Overflow приносят сложные и запутанные случаи, где нужен контекст и человеческий опыт.
Так что Stack Overflow не умирает - он превращается в площадку для глубоких технических обсуждений, а «быстрые фиксы» постепенно уезжают к ИИ.
📖 Подробности в исследовании: https://arxiv.org/abs/2509.05879
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤142👍57🔥8😨4👏2
📌 Бесплатный курс для учащихся школ и колледжей от Яндекс Лицея по машинному обучению.
Интенсивная теория и мощная практика: домашние работы, обратная связь от кураторов и командная разработка.
Чему научитесь:
✔️ Основам линейной алгебры и работы с матрицами, векторами
✔️ Базе алгоритмов машинного обучения: линейную регрессию, градиентный спуск и другие важные штуки
✔️ Работать с популярными библиотеками: Pandas, NumPy
✔️ Создавать и обучать свёрточные нейросети, которые, например, распознают рукописный текст.
После обучения получите именной сертификат, который может добавить баллы при поступлении в вузы-партнеры. Трёхмесячный онлайн-курс бесплатный, но есть отбор. Вы можете его пройти до 23 сентября.
Программу и все возможности можете узнать по ссылке.
Интенсивная теория и мощная практика: домашние работы, обратная связь от кураторов и командная разработка.
Чему научитесь:
✔️ Основам линейной алгебры и работы с матрицами, векторами
✔️ Базе алгоритмов машинного обучения: линейную регрессию, градиентный спуск и другие важные штуки
✔️ Работать с популярными библиотеками: Pandas, NumPy
✔️ Создавать и обучать свёрточные нейросети, которые, например, распознают рукописный текст.
После обучения получите именной сертификат, который может добавить баллы при поступлении в вузы-партнеры. Трёхмесячный онлайн-курс бесплатный, но есть отбор. Вы можете его пройти до 23 сентября.
Программу и все возможности можете узнать по ссылке.
❤25🔥4🥰4👏4😁1🦄1
🗣️ «Мысль о том, что ИИ создаст новые рабочие места, - это *полная .. чушь*. Под угрозой замещения находятся даже генеральные директора»
— Мо Гавдат, бывший топ-менеджер Google X.
@ai_machinelearning_big_data
#AI #Jobs #Automation #FutureOfWork
— Мо Гавдат, бывший топ-менеджер Google X.
@ai_machinelearning_big_data
#AI #Jobs #Automation #FutureOfWork
1👍61🤣52🔥12😐9❤8🌭6💯6👏3👀2
Стартовал оригинальный проект - palitra.ai: соревновательная площадка с системой поощрений, где искусственный интеллект осваивает искусство хранения секретов, а коммьюнити получает награды за успешные попытки расколоть его.
Как это работает:
На платформе представлены Агенты/Модели в двух режимах — Red Mode и Blue Mode.
В Red Mode агент получает секрет (32-байтовая строка), его хэш фиксируется и публикуется. Участники пытаются «уболтать» агента выдать секретную строку прямо в чате. За успешное получение секрета пользователь получает вознаграждение из фонда агента.
После утечки агент переходит в Blue Mode. Здесь сообщество предлагает и тестирует новые защитные механизмы — патчи (промпты, фильтры, модели-защитники). В этом режиме идёт соревнование патчей: участники предлагают свои защиты или пытаются взломать чужие. За успешное сопротивление атакам патч набирает очки устойчивости. Достигнув 101 очка, он становится «мастер-патчем» и применяется к агенту, который возвращается в Red Mode.
Пока агент держится в Red Mode с активным мастер-патчем, его автор получает комиссию с каждой попытки атаки.
Так формируется бесконечный цикл атаки и защиты: атаки приносят награды, стойкие патчи дают авторам комиссию, а агенты дообучаются на накопленном датасете. Чем дольше агент хранит секрет, тем больше его фонд.
Сейчас идёт стадия бета-тестирования с призовым фондом $10,000. Присоединиться может любой.
Ссылки:
Платформа: https://palitra.ai
Документация: [https://docs.palitra.ai](https://docs.palitra.ai/)
X: https://x.com/palitra_ai
Твит с анонсом и подробностями: https://x.com/FairMath/status/1965041033919824003
Telegram: https://www.group-telegram.com/palitra_ai
Как это работает:
На платформе представлены Агенты/Модели в двух режимах — Red Mode и Blue Mode.
В Red Mode агент получает секрет (32-байтовая строка), его хэш фиксируется и публикуется. Участники пытаются «уболтать» агента выдать секретную строку прямо в чате. За успешное получение секрета пользователь получает вознаграждение из фонда агента.
После утечки агент переходит в Blue Mode. Здесь сообщество предлагает и тестирует новые защитные механизмы — патчи (промпты, фильтры, модели-защитники). В этом режиме идёт соревнование патчей: участники предлагают свои защиты или пытаются взломать чужие. За успешное сопротивление атакам патч набирает очки устойчивости. Достигнув 101 очка, он становится «мастер-патчем» и применяется к агенту, который возвращается в Red Mode.
Пока агент держится в Red Mode с активным мастер-патчем, его автор получает комиссию с каждой попытки атаки.
Так формируется бесконечный цикл атаки и защиты: атаки приносят награды, стойкие патчи дают авторам комиссию, а агенты дообучаются на накопленном датасете. Чем дольше агент хранит секрет, тем больше его фонд.
Сейчас идёт стадия бета-тестирования с призовым фондом $10,000. Присоединиться может любой.
Ссылки:
Платформа: https://palitra.ai
Документация: [https://docs.palitra.ai](https://docs.palitra.ai/)
X: https://x.com/palitra_ai
Твит с анонсом и подробностями: https://x.com/FairMath/status/1965041033919824003
Telegram: https://www.group-telegram.com/palitra_ai
🔥37👍11❤4🥰4
RenderFormer — это нейросеть, которая способна полностью заменить традиционный рендеринг (ray tracing, rasterization), используя только машинное обучение.
- Она работает с любыми 3D-сценами, поддерживает глобальное освещение и отображение материалов.
- Сцена представляется через * tokens* — треугольники с информацией о позиции, нормалях и свойствах материалов.
- Источники света также моделируются треугольниками.
- Используются два трансформера:
1. View-independent — для теней, рассеянного освещения и эффектов, не зависящих от угла обзора.
2. View-dependent — для отражений, бликов и других эффектов, связанных с перспективой.
- Результат работы модели — токены, которые преобразуются в финальное изображение.
📌 Обучение и результаты
- Датасет: Objaverse (сотни тысяч 3D-объектов).
- Обучение проходило в два этапа: сначала низкое разрешение и меньше треугольников, затем — более высокое качество и больше деталей.
- RenderFormer воспроизводит реалистичные тени, отражения и освещённость.
📌 Ограничения и перспективы
- Масштабирование на очень сложные сцены пока вызывает трудности.
- Для работы требуются большие вычислительные мощности.
- Но подход открывает путь к новому поколению технологий: от визуального синтеза и генерации видео до робототехники.
https://www.microsoft.com/en-us/research/blog/renderformer-how-neural-networks-are-reshaping-3d-rendering/
@ai_machinelearning_big_data
#RenderFormer #NeuralRendering #3DGraphics #MicrosoftResearch #Transformers #ComputerVision #GlobalIllumination
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤11🔥10
This media is not supported in your browser
VIEW IN TELEGRAM
Твоя карьера после One Day Offer для Senior ML-разработчиков — 10/10 без всяких но! 🚀
Стань частью команды GigaCode, займись развитием AI-ассистента и работай с большими языковыми моделями — а плюсом получи крутую команду, выгодные бонусы и стабильную работу.
Встречаемся сначала на онлайн-секцию с кодом с 10 по 19 сентября, а затем на RND день 24 сентября — от тебя нужна только регистрация по ссылке и желание изменить свою карьеру!
Стань частью команды GigaCode, займись развитием AI-ассистента и работай с большими языковыми моделями — а плюсом получи крутую команду, выгодные бонусы и стабильную работу.
Встречаемся сначала на онлайн-секцию с кодом с 10 по 19 сентября, а затем на RND день 24 сентября — от тебя нужна только регистрация по ссылке и желание изменить свою карьеру!
❤10🔥9👍7🤣4😁2❤🔥1
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
Игра не просто работает, а поддерживает многопользовательский режим, отрисовывая всё с помощью ASCII-графики.
Каждый компонент — от рендера до синхронизации игроков — написан исключительно на SQL-запросах.
🎮 GitHub для настоящих ценителей извращённого кода: https://github.com/cedardb/DOOMQL
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😁96👍24❤12🔥10🙊5😨3🌚1🍓1
This media is not supported in your browser
VIEW IN TELEGRAM
Это движок с открытым исходным кодом, цель которого — уменьшить галлюцинации и логические сбои в системах типа RAG / LLM, особенно когда:
- источники OCR-текста плохо распознаются,
- происходит «semantic drift» (когда ответ уходит от вопроса),
- «ghost matches», когда извлечённый фрагмент кажется релевантным, но на самом деле нет.
Обычно ошибки ловят уже в готовом сгенерированном тексте, из-за чего они часто повторяются.
В Semantic Reasoning Engine всё наоборот: если система видит, что рассуждения «кривые» или сбились с курса, она останавливается, сбрасывается или ищет другой путь и отвечает только когда состояние стабильно.
Проверки встроены прямо в процесс мышления модели, а не поверх ответа с фильтрами или регексами. Это помогает избегать ошибок до того, как они попадут в вывод.
- неверный поиск данных,
- сбившаяся логика,
- «провалы памяти»,
- путаница ролей агентов и другие.
Для каждой есть простое текстовое исправление. Никаких SDK — достаточно вставить инструкции прямо в промпт.
- ΔS (drift) - не уходит ли смысл слишком далеко от шага к шагу
- λ (convergence) - сходится ли рассуждение к решению или крутится в цикле
- Coverage — достаточно ли фактов и аргументов учтено
Если все три условия выполнены, ответ считается «качественным».
▪ Github: https://github.com/onestardao/WFGY
@ai_machinelearning_big_data
#ai #llm #opensource #reasoning #hallucinations #promptengineering
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥14❤8🌭2
🚀 Релиз: Qwen3-Next-80B-A3B - эффективная модель заточенная на работа работу с очень длинным контекстом!
🔹 80B параметров, но активируется только 3B на токен → тренировка и инференс 10x дешевле и быстрее, чем у Qwen3-32B (особенно при 32K+ контексте).
🔹 Гибридная архитектура: Gated DeltaNet + Gated Attention → сочетает скорость и точность.
🔹 Ultra-sparse MoE: 512 экспертов, маршрутизируется 10 + 1 общий.
🔹 Multi-Token Prediction → ускоренное speculative decoding.
🔹 По производительности обходит Qwen3-32B и приближается к Qwen3-235B в рассуждениях и long-context задачах.
🟢 Qwen3-Next-80B-A3B-Instruct показатели почти на уровне 235B flagship.
🟢 Qwen3-Next-80B-A3B-Thinking превосходит Gemini-2.5-Flash-Thinking.
▪ Попробовать: https://chat.qwen.ai
▪ Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
▪ HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
▪ ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
▪ Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
▪ Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj
@ai_machinelearning_big_data
#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
▪ Попробовать: https://chat.qwen.ai
▪ Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
▪ HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
▪ ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
▪ Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
▪ Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj
@ai_machinelearning_big_data
#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤39👍16🔥13🌭1