Telegram Group & Telegram Channel
Дмитрий Савостьянов Вещает
Вы ничего не знаете про AI (NLP), если не читали эти 10 статей Выбил себе про-план в опенаи, теперь могу делать дип ресерч с кликбейтными заголовками. Потестил на NLP, звучит разумно. 1. Hochreiter & Schmidhuber (1997) – LSTM. Решает проблему исчезающего…
Вы ничего не знаете про AI (Computer Vision), если не читали эти 10 статей

Мне понравилась предыдущая подборка по NLP, поэтому сделал еще одну. Кажется могу теперь подаваться в SEO’шники.

1. Canny (1986) – A Computational Approach to Edge Detection. Формализовал критерии оптимального обнаружения границ, заложив основу для извлечения признаков в компьютерном зрении. (edge detection, feature extraction)

2. Lowe (2004) – SIFT: Scale-Invariant Feature Transform. Ввел SIFT – алгоритм для поиска ключевых точек, устойчивых к изменению масштаба и повороту. (feature detection, keypoints, matching)

3. LeCun et al. (1998) – LeNet-5. Показал, что сверточные нейросети (CNN) могут превосходить традиционные методы для распознавания изображений. (convolutional neural networks, deep learning)

4. Krizhevsky et al. (2012) – AlexNet. Сделал глубокие нейросети мейнстримом, победив в ImageNet 2012. Ввел ReLU, Dropout и массово использовал GPU. (deep learning, CNN, ImageNet)

5. He et al. (2015) – ResNet: Deep Residual Learning. Ввел остаточные связи, позволив тренировать сети 100+ слоев без проблем деградации градиента. (residual connections, deep networks, architecture design)

6. Redmon et al. (2016) – YOLO: You Only Look Once. Превратил детекцию объектов в единую задачу регрессии, сделав ее в разы быстрее. (real-time object detection, one-stage detectors)

7. Chen et al. (2020) – SimCLR: Self-Supervised Learning. Показал, что модели могут учиться без разметки. (self-supervised learning, contrastive learning, representation learning)

8. Dosovitskiy et al. (2020) – Vision Transformer (ViT). Доказал, что трансформеры работают в CV, исключив CNN блоки. (transformers, self-attention, image classification)

9. Radford et al. (2021) – CLIP: Learning from Images and Text. Соединил NLP и CV, обучив модель понимать изображения через текстовые описания. (vision-language models, multimodal AI, zero-shot learning)

10. Tan & Le (2019) – EfficientNet. Предложил эффективный способ масштабирования нейросетей, получив SOTA-результаты при меньших затратах. (efficient architectures, AutoML, model scaling)



group-telegram.com/savostyanov_dmitry/622
Create:
Last Update:

Вы ничего не знаете про AI (Computer Vision), если не читали эти 10 статей

Мне понравилась предыдущая подборка по NLP, поэтому сделал еще одну. Кажется могу теперь подаваться в SEO’шники.

1. Canny (1986) – A Computational Approach to Edge Detection. Формализовал критерии оптимального обнаружения границ, заложив основу для извлечения признаков в компьютерном зрении. (edge detection, feature extraction)

2. Lowe (2004) – SIFT: Scale-Invariant Feature Transform. Ввел SIFT – алгоритм для поиска ключевых точек, устойчивых к изменению масштаба и повороту. (feature detection, keypoints, matching)

3. LeCun et al. (1998) – LeNet-5. Показал, что сверточные нейросети (CNN) могут превосходить традиционные методы для распознавания изображений. (convolutional neural networks, deep learning)

4. Krizhevsky et al. (2012) – AlexNet. Сделал глубокие нейросети мейнстримом, победив в ImageNet 2012. Ввел ReLU, Dropout и массово использовал GPU. (deep learning, CNN, ImageNet)

5. He et al. (2015) – ResNet: Deep Residual Learning. Ввел остаточные связи, позволив тренировать сети 100+ слоев без проблем деградации градиента. (residual connections, deep networks, architecture design)

6. Redmon et al. (2016) – YOLO: You Only Look Once. Превратил детекцию объектов в единую задачу регрессии, сделав ее в разы быстрее. (real-time object detection, one-stage detectors)

7. Chen et al. (2020) – SimCLR: Self-Supervised Learning. Показал, что модели могут учиться без разметки. (self-supervised learning, contrastive learning, representation learning)

8. Dosovitskiy et al. (2020) – Vision Transformer (ViT). Доказал, что трансформеры работают в CV, исключив CNN блоки. (transformers, self-attention, image classification)

9. Radford et al. (2021) – CLIP: Learning from Images and Text. Соединил NLP и CV, обучив модель понимать изображения через текстовые описания. (vision-language models, multimodal AI, zero-shot learning)

10. Tan & Le (2019) – EfficientNet. Предложил эффективный способ масштабирования нейросетей, получив SOTA-результаты при меньших затратах. (efficient architectures, AutoML, model scaling)

BY Дмитрий Савостьянов Вещает


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/savostyanov_dmitry/622

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Telegram was founded in 2013 by two Russian brothers, Nikolai and Pavel Durov. The perpetrators use various names to carry out the investment scams. They may also impersonate or clone licensed capital market intermediaries by using the names, logos, credentials, websites and other details of the legitimate entities to promote the illegal schemes. Crude oil prices edged higher after tumbling on Thursday, when U.S. West Texas intermediate slid back below $110 per barrel after topping as much as $130 a barrel in recent sessions. Still, gas prices at the pump rose to fresh highs. Friday’s performance was part of a larger shift. For the week, the Dow, S&P 500 and Nasdaq fell 2%, 2.9%, and 3.5%, respectively. For example, WhatsApp restricted the number of times a user could forward something, and developed automated systems that detect and flag objectionable content.
from cn


Telegram Дмитрий Савостьянов Вещает
FROM American