Telegram Group Search
📊 Stack Overflow жив, но постепеноо меняется.

С появлением ChatGPT активность на Stack Overflow снизилась, но характер вопросов сильно изменился.

🔹 Вопросов стало меньше, но они стали длиннее и сложнее. 🔹 Количество примеров кода выросло, особенно в Python (+21%) - это значит, что теперь в вопросах и ответах на Stack Overflow стало значительно больше кода.
🔹 И сами ответы тоже стали длиннее и содержательнее.

Учёные проанализировали данные за 2 года и сравнили активность до и после запуска ChatGPT.

Они измеряли длину постов, объём кода, просмотры и оценки, а также оценивали уровень сложности вопросов (лёгкие, средние, сложные).

📈 Выводы:
- В цлеом, общее число вопросов продолжает снижаться.
- Лёгких вопросов становится меньше.
- Вопросов среднего уровня стало больше .
- Сложные остаются примерно на том же уровне.

👉 Логика проста:
- Простые вопросы люди теперь задают ChatGPT.
- На Stack Overflow приносят сложные и запутанные случаи, где нужен контекст и человеческий опыт.

Так что Stack Overflow не умирает - он превращается в площадку для глубоких технических обсуждений, а «быстрые фиксы» постепенно уезжают к ИИ.

📖 Подробности в исследовании: https://arxiv.org/abs/2509.05879

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1142👍57🔥8😨4👏2
📌 Бесплатный курс для учащихся школ и колледжей от Яндекс Лицея по машинному обучению.

Интенсивная теория и мощная практика: домашние работы, обратная связь от кураторов и командная разработка.

Чему научитесь:

✔️ Основам линейной алгебры и работы с матрицами, векторами
✔️ Базе алгоритмов машинного обучения: линейную регрессию, градиентный спуск и другие важные штуки
✔️ Работать с популярными библиотеками: Pandas, NumPy
✔️ Создавать и обучать свёрточные нейросети, которые, например, распознают рукописный текст.

После обучения получите именной сертификат, который может добавить баллы при поступлении в вузы-партнеры. Трёхмесячный онлайн-курс бесплатный, но есть отбор. Вы можете его пройти до 23 сентября.

Программу и все возможности можете узнать по ссылке.
25🔥4🥰4👏4😁1🦄1
🗣️ «Мысль о том, что ИИ создаст новые рабочие места, - это *полная .. чушь*. Под угрозой замещения находятся даже генеральные директора»

— Мо Гавдат, бывший топ-менеджер Google X.

@ai_machinelearning_big_data

#AI #Jobs #Automation #FutureOfWork
1👍61🤣52🔥12😐98🌭6💯6👏3👀2
Стартовал оригинальный проект - palitra.ai: соревновательная площадка с системой поощрений, где искусственный интеллект осваивает искусство хранения секретов, а коммьюнити получает награды за успешные попытки расколоть его.

Как это работает:

На платформе представлены Агенты/Модели в двух режимах — Red Mode и Blue Mode.

В Red Mode агент получает секрет (32-байтовая строка), его хэш фиксируется и публикуется. Участники пытаются «уболтать» агента выдать секретную строку прямо в чате. За успешное получение секрета пользователь получает вознаграждение из фонда агента.

После утечки агент переходит в Blue Mode. Здесь сообщество предлагает и тестирует новые защитные механизмы — патчи (промпты, фильтры, модели-защитники). В этом режиме идёт соревнование патчей: участники предлагают свои защиты или пытаются взломать чужие. За успешное сопротивление атакам патч набирает очки устойчивости. Достигнув 101 очка, он становится «мастер-патчем» и применяется к агенту, который возвращается в Red Mode.

Пока агент держится в Red Mode с активным мастер-патчем, его автор получает комиссию с каждой попытки атаки.

Так формируется бесконечный цикл атаки и защиты: атаки приносят награды, стойкие патчи дают авторам комиссию, а агенты дообучаются на накопленном датасете. Чем дольше агент хранит секрет, тем больше его фонд.

Сейчас идёт стадия бета-тестирования с призовым фондом $10,000. Присоединиться может любой.

Ссылки:
Платформа: https://palitra.ai
Документация: [https://docs.palitra.ai](https://docs.palitra.ai/)
X: https://x.com/palitra_ai
Твит с анонсом и подробностями: https://x.com/FairMath/status/1965041033919824003
Telegram: https://www.group-telegram.com/palitra_ai
🔥37👍114🥰4
🔥 RenderFormer: как нейросети меняют 3D-рендеринг - Новое Исследование Microsoft Research

RenderFormer — это нейросеть, которая способна полностью заменить традиционный рендеринг (ray tracing, rasterization), используя только машинное обучение.
- Она работает с любыми 3D-сценами, поддерживает глобальное освещение и отображение материалов.

📌 Как это устроено
- Сцена представляется через * tokens* — треугольники с информацией о позиции, нормалях и свойствах материалов.
- Источники света также моделируются треугольниками.
- Используются два трансформера:
1. View-independent — для теней, рассеянного освещения и эффектов, не зависящих от угла обзора.
2. View-dependent — для отражений, бликов и других эффектов, связанных с перспективой.
- Результат работы модели — токены, которые преобразуются в финальное изображение.

📌 Обучение и результаты
- Датасет: Objaverse (сотни тысяч 3D-объектов).
- Обучение проходило в два этапа: сначала низкое разрешение и меньше треугольников, затем — более высокое качество и больше деталей.
- RenderFormer воспроизводит реалистичные тени, отражения и освещённость.

📌 Ограничения и перспективы
- Масштабирование на очень сложные сцены пока вызывает трудности.
- Для работы требуются большие вычислительные мощности.
- Но подход открывает путь к новому поколению технологий: от визуального синтеза и генерации видео до робототехники.

https://www.microsoft.com/en-us/research/blog/renderformer-how-neural-networks-are-reshaping-3d-rendering/

@ai_machinelearning_big_data


#RenderFormer #NeuralRendering #3DGraphics #MicrosoftResearch #Transformers #ComputerVision #GlobalIllumination
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1711🔥10
This media is not supported in your browser
VIEW IN TELEGRAM
Твоя карьера после One Day Offer для Senior ML-разработчиков — 10/10 без всяких но! 🚀

Стань частью команды GigaCode, займись развитием AI-ассистента и работай с большими языковыми моделями — а плюсом получи крутую команду, выгодные бонусы и стабильную работу.

Встречаемся сначала на онлайн-секцию с кодом с 10 по 19 сентября, а затем на RND день 24 сентября — от тебя нужна только регистрация по ссылке и желание изменить свою карьеру!
10🔥9👍7🤣4😁2❤‍🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ На чистом SQL запустили легендарный DOOM — прямо внутри базы данных CedarDB!

Игра не просто работает, а поддерживает многопользовательский режим, отрисовывая всё с помощью ASCII-графики.
Каждый компонент — от рендера до синхронизации игроков — написан исключительно на SQL-запросах.

🎮 GitHub для настоящих ценителей извращённого кода: https://github.com/cedardb/DOOMQL

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😁96👍2412🔥10🙊5😨3🌚1🍓1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 WFGY 2.0 — Semantic Reasoning Engine for LLMs (MIT)

Это движок с открытым исходным кодом, цель которого — уменьшить галлюцинации и логические сбои в системах типа RAG / LLM, особенно когда:
- источники OCR-текста плохо распознаются,
- происходит «semantic drift» (когда ответ уходит от вопроса),
- «ghost matches», когда извлечённый фрагмент кажется релевантным, но на самом деле нет.

Обычно ошибки ловят уже в готовом сгенерированном тексте, из-за чего они часто повторяются.

В Semantic Reasoning Engine всё наоборот: если система видит, что рассуждения «кривые» или сбились с курса, она останавливается, сбрасывается или ищет другой путь и отвечает только когда состояние стабильно.

🛡Авторы называют это semantic firewall - семантический «файрвол».

Проверки встроены прямо в процесс мышления модели, а не поверх ответа с фильтрами или регексами. Это помогает избегать ошибок до того, как они попадут в вывод.

📌 Проект включает карту из 16 типичных ошибок LLM:
- неверный поиск данных,
- сбившаяся логика,
- «провалы памяти»,
- путаница ролей агентов и другие.

Для каждой есть простое текстовое исправление. Никаких SDK — достаточно вставить инструкции прямо в промпт.

🟢Как модель решает, правильные ли ответ генерируется:
- ΔS (drift) - не уходит ли смысл слишком далеко от шага к шагу
- λ (convergence) - сходится ли рассуждение к решению или крутится в цикле
- Coverage — достаточно ли фактов и аргументов учтено

Если все три условия выполнены, ответ считается «качественным».

🟢В тестах стабильность вывода выросла до 90–95% против обычных 70–85% у традиционных подходов.

Github: https://github.com/onestardao/WFGY

@ai_machinelearning_big_data

#ai #llm #opensource #reasoning #hallucinations #promptengineering
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥148🌭2
🚀 Релиз: Qwen3-Next-80B-A3B - эффективная модель заточенная на работа работу с очень длинным контекстом!

🔹 80B параметров, но активируется только 3B на токен → тренировка и инференс 10x дешевле и быстрее, чем у Qwen3-32B (особенно при 32K+ контексте).
🔹 Гибридная архитектура: Gated DeltaNet + Gated Attention → сочетает скорость и точность.
🔹 Ultra-sparse MoE: 512 экспертов, маршрутизируется 10 + 1 общий.
🔹 Multi-Token Prediction → ускоренное speculative decoding.
🔹 По производительности обходит Qwen3-32B и приближается к Qwen3-235B в рассуждениях и long-context задачах.

🟢Qwen3-Next-80B-A3B-Instruct показатели почти на уровне 235B flagship.
🟢 Qwen3-Next-80B-A3B-Thinking превосходит Gemini-2.5-Flash-Thinking.

Попробовать: https://chat.qwen.ai
Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj

@ai_machinelearning_big_data

#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
39👍16🔥13🌭1
2025/09/11 22:17:47

❌Photos not found?❌Click here to update cache.


Back to Top
HTML Embed Code: