Telegram Group & Telegram Channel
Дмитрий Савостьянов Вещает
Вы ничего не знаете про AI (NLP), если не читали эти 10 статей Выбил себе про-план в опенаи, теперь могу делать дип ресерч с кликбейтными заголовками. Потестил на NLP, звучит разумно. 1. Hochreiter & Schmidhuber (1997) – LSTM. Решает проблему исчезающего…
Вы ничего не знаете про AI (Computer Vision), если не читали эти 10 статей

Мне понравилась предыдущая подборка по NLP, поэтому сделал еще одну. Кажется могу теперь подаваться в SEO’шники.

1. Canny (1986) – A Computational Approach to Edge Detection. Формализовал критерии оптимального обнаружения границ, заложив основу для извлечения признаков в компьютерном зрении. (edge detection, feature extraction)

2. Lowe (2004) – SIFT: Scale-Invariant Feature Transform. Ввел SIFT – алгоритм для поиска ключевых точек, устойчивых к изменению масштаба и повороту. (feature detection, keypoints, matching)

3. LeCun et al. (1998) – LeNet-5. Показал, что сверточные нейросети (CNN) могут превосходить традиционные методы для распознавания изображений. (convolutional neural networks, deep learning)

4. Krizhevsky et al. (2012) – AlexNet. Сделал глубокие нейросети мейнстримом, победив в ImageNet 2012. Ввел ReLU, Dropout и массово использовал GPU. (deep learning, CNN, ImageNet)

5. He et al. (2015) – ResNet: Deep Residual Learning. Ввел остаточные связи, позволив тренировать сети 100+ слоев без проблем деградации градиента. (residual connections, deep networks, architecture design)

6. Redmon et al. (2016) – YOLO: You Only Look Once. Превратил детекцию объектов в единую задачу регрессии, сделав ее в разы быстрее. (real-time object detection, one-stage detectors)

7. Chen et al. (2020) – SimCLR: Self-Supervised Learning. Показал, что модели могут учиться без разметки. (self-supervised learning, contrastive learning, representation learning)

8. Dosovitskiy et al. (2020) – Vision Transformer (ViT). Доказал, что трансформеры работают в CV, исключив CNN блоки. (transformers, self-attention, image classification)

9. Radford et al. (2021) – CLIP: Learning from Images and Text. Соединил NLP и CV, обучив модель понимать изображения через текстовые описания. (vision-language models, multimodal AI, zero-shot learning)

10. Tan & Le (2019) – EfficientNet. Предложил эффективный способ масштабирования нейросетей, получив SOTA-результаты при меньших затратах. (efficient architectures, AutoML, model scaling)



group-telegram.com/savostyanov_dmitry/622
Create:
Last Update:

Вы ничего не знаете про AI (Computer Vision), если не читали эти 10 статей

Мне понравилась предыдущая подборка по NLP, поэтому сделал еще одну. Кажется могу теперь подаваться в SEO’шники.

1. Canny (1986) – A Computational Approach to Edge Detection. Формализовал критерии оптимального обнаружения границ, заложив основу для извлечения признаков в компьютерном зрении. (edge detection, feature extraction)

2. Lowe (2004) – SIFT: Scale-Invariant Feature Transform. Ввел SIFT – алгоритм для поиска ключевых точек, устойчивых к изменению масштаба и повороту. (feature detection, keypoints, matching)

3. LeCun et al. (1998) – LeNet-5. Показал, что сверточные нейросети (CNN) могут превосходить традиционные методы для распознавания изображений. (convolutional neural networks, deep learning)

4. Krizhevsky et al. (2012) – AlexNet. Сделал глубокие нейросети мейнстримом, победив в ImageNet 2012. Ввел ReLU, Dropout и массово использовал GPU. (deep learning, CNN, ImageNet)

5. He et al. (2015) – ResNet: Deep Residual Learning. Ввел остаточные связи, позволив тренировать сети 100+ слоев без проблем деградации градиента. (residual connections, deep networks, architecture design)

6. Redmon et al. (2016) – YOLO: You Only Look Once. Превратил детекцию объектов в единую задачу регрессии, сделав ее в разы быстрее. (real-time object detection, one-stage detectors)

7. Chen et al. (2020) – SimCLR: Self-Supervised Learning. Показал, что модели могут учиться без разметки. (self-supervised learning, contrastive learning, representation learning)

8. Dosovitskiy et al. (2020) – Vision Transformer (ViT). Доказал, что трансформеры работают в CV, исключив CNN блоки. (transformers, self-attention, image classification)

9. Radford et al. (2021) – CLIP: Learning from Images and Text. Соединил NLP и CV, обучив модель понимать изображения через текстовые описания. (vision-language models, multimodal AI, zero-shot learning)

10. Tan & Le (2019) – EfficientNet. Предложил эффективный способ масштабирования нейросетей, получив SOTA-результаты при меньших затратах. (efficient architectures, AutoML, model scaling)

BY Дмитрий Савостьянов Вещает


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/savostyanov_dmitry/622

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Telegram boasts 500 million users, who share information individually and in groups in relative security. But Telegram's use as a one-way broadcast channel — which followers can join but not reply to — means content from inauthentic accounts can easily reach large, captive and eager audiences. Russian President Vladimir Putin launched Russia's invasion of Ukraine in the early-morning hours of February 24, targeting several key cities with military strikes. Telegram does offer end-to-end encrypted communications through Secret Chats, but this is not the default setting. Standard conversations use the MTProto method, enabling server-client encryption but with them stored on the server for ease-of-access. This makes using Telegram across multiple devices simple, but also means that the regular Telegram chats you’re having with folks are not as secure as you may believe. In view of this, the regulator has cautioned investors not to rely on such investment tips / advice received through social media platforms. It has also said investors should exercise utmost caution while taking investment decisions while dealing in the securities market. The company maintains that it cannot act against individual or group chats, which are “private amongst their participants,” but it will respond to requests in relation to sticker sets, channels and bots which are publicly available. During the invasion of Ukraine, Pavel Durov has wrestled with this issue a lot more prominently than he has before. Channels like Donbass Insider and Bellum Acta, as reported by Foreign Policy, started pumping out pro-Russian propaganda as the invasion began. So much so that the Ukrainian National Security and Defense Council issued a statement labeling which accounts are Russian-backed. Ukrainian officials, in potential violation of the Geneva Convention, have shared imagery of dead and captured Russian soldiers on the platform.
from us


Telegram Дмитрий Савостьянов Вещает
FROM American