Telegram Group & Telegram Channel
Сходство между детьми и ML 😱

Вот уже более 4 лет наблюдаю за своим сыном и его развитием.
Из-за профдеформации нахожу много любопытного сходства с миром машинного обучения:

1. Overfitting (Переобучение). Его замечаю чаще всего.
Ребенок слишком быстро адаптируется (лучше даже сказать привыкает) к определенной конфигурации жизни: паттерны поведения, ритуалы, игры, последовательности действий, даже разные “фразочки”.
Пару примеров:
🟠стоит несколько раз после садика зайти на ближайшую детскую площадку, потом в Азбуку, поесть мороженное и поехать домой, как все следующие разы это становится дефолтным сценарием
🟠ритуал читать книгу перед сном. даже если уже 12 ночи
🟠за рулем один раз крикни “Козел, че сигналишь” (и че похуже 🐔). В след разы появления этого триггера посмотрите, что будет 😄

Из-за это как раз и появляются сбои программы, когда что-то отличается от привычного уклада. Сбои выражаются в виде плача / истерик / сопротивления и искреннего непонимания ПОЧЕМУ ТАК.

Я очень позитивно отношусь к ритуалам (особенно сейчас для себя 🙂 или в младенчестве), но регулярные ритуалы с ребенком, без постоянных добавлений новых факторов или вариаций, могут привести к "переобучению", что потом вызывает стресс при изменениях.

2. Вариативность данных.
Получается лучшее, что может дать Родитель Ребенку, чтобы избежать “переобучения” — это увеличивать вариативность всего: своей реакции, событий, мест, время провождений, прослушиваемой музыки, книг и друзей, данных.

В том числе поэтому полезно, когда ваше чадо воспитываете не только вы, а еще пара бабушек с дедушками. Получится увидеть разные модели поведения, диверсифицироваться и избавить себя от стандартных паттернов и предрассудков.

Чем больше различных данных (ситуаций и событий) ребёнок получает, тем лучше его способность находить новые решения, что похоже на улучшение "обобщающей способности" модели.

(А еще есть хороший мэтч с Cross Validation, но уже для совсем продвинутых читателей, не буду объяснять 🙂).


3. Transfer Learning (Перенос Знаний).
Дети учатся в одном контексте и начинают применять это в другом. Например, узнав, как собрать простую конструкцию из кубиков, ребенок может применить этот навык в других играх. Или начинает придумывать новые истории, имена на основе прочитанных книг. Ребенок перенимает знакомые ему образы героев и сценарии из книги, но добавляет в своих играх новые элементы: новых персонажей или неожиданные повороты.

__________________________________
Если зайдет, напишу потом про Reinforcement Learning, Регуляризацию, Exploration vs. Exploitation.
Please open Telegram to view this post
VIEW IN TELEGRAM



group-telegram.com/wait_shmulev/38
Create:
Last Update:

Сходство между детьми и ML 😱

Вот уже более 4 лет наблюдаю за своим сыном и его развитием.
Из-за профдеформации нахожу много любопытного сходства с миром машинного обучения:

1. Overfitting (Переобучение). Его замечаю чаще всего.
Ребенок слишком быстро адаптируется (лучше даже сказать привыкает) к определенной конфигурации жизни: паттерны поведения, ритуалы, игры, последовательности действий, даже разные “фразочки”.
Пару примеров:
🟠стоит несколько раз после садика зайти на ближайшую детскую площадку, потом в Азбуку, поесть мороженное и поехать домой, как все следующие разы это становится дефолтным сценарием
🟠ритуал читать книгу перед сном. даже если уже 12 ночи
🟠за рулем один раз крикни “Козел, че сигналишь” (и че похуже 🐔). В след разы появления этого триггера посмотрите, что будет 😄

Из-за это как раз и появляются сбои программы, когда что-то отличается от привычного уклада. Сбои выражаются в виде плача / истерик / сопротивления и искреннего непонимания ПОЧЕМУ ТАК.

Я очень позитивно отношусь к ритуалам (особенно сейчас для себя 🙂 или в младенчестве), но регулярные ритуалы с ребенком, без постоянных добавлений новых факторов или вариаций, могут привести к "переобучению", что потом вызывает стресс при изменениях.

2. Вариативность данных.
Получается лучшее, что может дать Родитель Ребенку, чтобы избежать “переобучения” — это увеличивать вариативность всего: своей реакции, событий, мест, время провождений, прослушиваемой музыки, книг и друзей, данных.

В том числе поэтому полезно, когда ваше чадо воспитываете не только вы, а еще пара бабушек с дедушками. Получится увидеть разные модели поведения, диверсифицироваться и избавить себя от стандартных паттернов и предрассудков.

Чем больше различных данных (ситуаций и событий) ребёнок получает, тем лучше его способность находить новые решения, что похоже на улучшение "обобщающей способности" модели.

(А еще есть хороший мэтч с Cross Validation, но уже для совсем продвинутых читателей, не буду объяснять 🙂).


3. Transfer Learning (Перенос Знаний).
Дети учатся в одном контексте и начинают применять это в другом. Например, узнав, как собрать простую конструкцию из кубиков, ребенок может применить этот навык в других играх. Или начинает придумывать новые истории, имена на основе прочитанных книг. Ребенок перенимает знакомые ему образы героев и сценарии из книги, но добавляет в своих играх новые элементы: новых персонажей или неожиданные повороты.

__________________________________
Если зайдет, напишу потом про Reinforcement Learning, Регуляризацию, Exploration vs. Exploitation.

BY Ну Шмулев, погоди!




Share with your friend now:
group-telegram.com/wait_shmulev/38

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

DFR Lab sent the image through Microsoft Azure's Face Verification program and found that it was "highly unlikely" that the person in the second photo was the same as the first woman. The fact-checker Logically AI also found the claim to be false. The woman, Olena Kurilo, was also captured in a video after the airstrike and shown to have the injuries. But because group chats and the channel features are not end-to-end encrypted, Galperin said user privacy is potentially under threat. Channels are not fully encrypted, end-to-end. All communications on a Telegram channel can be seen by anyone on the channel and are also visible to Telegram. Telegram may be asked by a government to hand over the communications from a channel. Telegram has a history of standing up to Russian government requests for data, but how comfortable you are relying on that history to predict future behavior is up to you. Because Telegram has this data, it may also be stolen by hackers or leaked by an internal employee. WhatsApp, a rival messaging platform, introduced some measures to counter disinformation when Covid-19 was first sweeping the world. At the start of 2018, the company attempted to launch an Initial Coin Offering (ICO) which would enable it to enable payments (and earn the cash that comes from doing so). The initial signals were promising, especially given Telegram’s user base is already fairly crypto-savvy. It raised an initial tranche of cash – worth more than a billion dollars – to help develop the coin before opening sales to the public. Unfortunately, third-party sales of coins bought in those initial fundraising rounds raised the ire of the SEC, which brought the hammer down on the whole operation. In 2020, officials ordered Telegram to pay a fine of $18.5 million and hand back much of the cash that it had raised.
from in


Telegram Ну Шмулев, погоди!
FROM American