Telegram Group & Telegram Channel
В курсе "Основы байесовского вывода" сегодня говорили о двух важных общих сюжетах, пронизывающих всё машинное обучение.

СПбГУ — 2025.10.16 — Ближайшие соседи, проклятие размерности, разложение bias-variance-noise
(слайды, доска и ноутбук, как всегда, на странице курса)

Здесь логика изложения у меня такая: я начинаю с метода ближайших соседей и показываю, что на плоскости, там, где я могу нарисовать точки и разделяющие поверхности, он работает блестяще, может провести какую угодно разделяющую поверхность и вообще выглядит идеально. Возникает резонный вопрос: а вообще зачем нам всё машинное обучение тогда? Может, ближайших соседей достаточно, только решить проблемы с вычислительной сложностью (а их в целом можно решить), да и всё? Ответ на этот вопрос — проклятие размерности; почему и ближайшие соседи, и многие другие методы начинают ломаться, когда размерность пространства признаков растёт.

А второй сюжет начинается с основ статистической теории принятия решений: какая идеальная, наилучшая возможная функция предсказания? Какая у неё будет ожидаемая ошибка (спойлер: ненулевая, разумеется, в данных ведь есть шум)? А ту часть ошибки, которую мы контролируем, можно дальше разделить на две части: дисперсию, которая показывает, насколько модель сильно отклоняется от своего собственного ожидания в зависимости от конкретного датасета, и смещение, которое показывает, насколько это её ожидание далеко от идеальной функции предсказания. В результате получается легко интерпретируемый результат, который показывает один из главных компромиссов (tradeoffs) при выборе гиперпараметров моделей (например, коэффициента регуляризации): между смещением и дисперсией.
👍185



group-telegram.com/sinecor/667
Create:
Last Update:

В курсе "Основы байесовского вывода" сегодня говорили о двух важных общих сюжетах, пронизывающих всё машинное обучение.

СПбГУ — 2025.10.16 — Ближайшие соседи, проклятие размерности, разложение bias-variance-noise
(слайды, доска и ноутбук, как всегда, на странице курса)

Здесь логика изложения у меня такая: я начинаю с метода ближайших соседей и показываю, что на плоскости, там, где я могу нарисовать точки и разделяющие поверхности, он работает блестяще, может провести какую угодно разделяющую поверхность и вообще выглядит идеально. Возникает резонный вопрос: а вообще зачем нам всё машинное обучение тогда? Может, ближайших соседей достаточно, только решить проблемы с вычислительной сложностью (а их в целом можно решить), да и всё? Ответ на этот вопрос — проклятие размерности; почему и ближайшие соседи, и многие другие методы начинают ломаться, когда размерность пространства признаков растёт.

А второй сюжет начинается с основ статистической теории принятия решений: какая идеальная, наилучшая возможная функция предсказания? Какая у неё будет ожидаемая ошибка (спойлер: ненулевая, разумеется, в данных ведь есть шум)? А ту часть ошибки, которую мы контролируем, можно дальше разделить на две части: дисперсию, которая показывает, насколько модель сильно отклоняется от своего собственного ожидания в зависимости от конкретного датасета, и смещение, которое показывает, насколько это её ожидание далеко от идеальной функции предсказания. В результате получается легко интерпретируемый результат, который показывает один из главных компромиссов (tradeoffs) при выборе гиперпараметров моделей (например, коэффициента регуляризации): между смещением и дисперсией.

BY Sinекура




Share with your friend now:
group-telegram.com/sinecor/667

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The regulator took order for the search and seizure operation from Judge Purushottam B Jadhav, Sebi Special Judge / Additional Sessions Judge. In the past, it was noticed that through bulk SMSes, investors were induced to invest in or purchase the stocks of certain listed companies. Overall, extreme levels of fear in the market seems to have morphed into something more resembling concern. For example, the Cboe Volatility Index fell from its 2022 peak of 36, which it hit Monday, to around 30 on Friday, a sign of easing tensions. Meanwhile, while the price of WTI crude oil slipped from Sunday’s multiyear high $130 of barrel to $109 a pop. Markets have been expecting heavy restrictions on Russian oil, some of which the U.S. has already imposed, and that would reduce the global supply and bring about even more burdensome inflation. The regulator said it had received information that messages containing stock tips and other investment advice with respect to selected listed companies are being widely circulated through websites and social media platforms such as Telegram, Facebook, WhatsApp and Instagram. Ukrainian President Volodymyr Zelensky said in a video message on Tuesday that Ukrainian forces "destroy the invaders wherever we can."
from it


Telegram Sinекура
FROM American