Telegram Group & Telegram Channel
Дмитрий Савостьянов Вещает
Вы ничего не знаете про AI (NLP), если не читали эти 10 статей Выбил себе про-план в опенаи, теперь могу делать дип ресерч с кликбейтными заголовками. Потестил на NLP, звучит разумно. 1. Hochreiter & Schmidhuber (1997) – LSTM. Решает проблему исчезающего…
Вы ничего не знаете про AI (Computer Vision), если не читали эти 10 статей

Мне понравилась предыдущая подборка по NLP, поэтому сделал еще одну. Кажется могу теперь подаваться в SEO’шники.

1. Canny (1986) – A Computational Approach to Edge Detection. Формализовал критерии оптимального обнаружения границ, заложив основу для извлечения признаков в компьютерном зрении. (edge detection, feature extraction)

2. Lowe (2004) – SIFT: Scale-Invariant Feature Transform. Ввел SIFT – алгоритм для поиска ключевых точек, устойчивых к изменению масштаба и повороту. (feature detection, keypoints, matching)

3. LeCun et al. (1998) – LeNet-5. Показал, что сверточные нейросети (CNN) могут превосходить традиционные методы для распознавания изображений. (convolutional neural networks, deep learning)

4. Krizhevsky et al. (2012) – AlexNet. Сделал глубокие нейросети мейнстримом, победив в ImageNet 2012. Ввел ReLU, Dropout и массово использовал GPU. (deep learning, CNN, ImageNet)

5. He et al. (2015) – ResNet: Deep Residual Learning. Ввел остаточные связи, позволив тренировать сети 100+ слоев без проблем деградации градиента. (residual connections, deep networks, architecture design)

6. Redmon et al. (2016) – YOLO: You Only Look Once. Превратил детекцию объектов в единую задачу регрессии, сделав ее в разы быстрее. (real-time object detection, one-stage detectors)

7. Chen et al. (2020) – SimCLR: Self-Supervised Learning. Показал, что модели могут учиться без разметки. (self-supervised learning, contrastive learning, representation learning)

8. Dosovitskiy et al. (2020) – Vision Transformer (ViT). Доказал, что трансформеры работают в CV, исключив CNN блоки. (transformers, self-attention, image classification)

9. Radford et al. (2021) – CLIP: Learning from Images and Text. Соединил NLP и CV, обучив модель понимать изображения через текстовые описания. (vision-language models, multimodal AI, zero-shot learning)

10. Tan & Le (2019) – EfficientNet. Предложил эффективный способ масштабирования нейросетей, получив SOTA-результаты при меньших затратах. (efficient architectures, AutoML, model scaling)



group-telegram.com/savostyanov_dmitry/622
Create:
Last Update:

Вы ничего не знаете про AI (Computer Vision), если не читали эти 10 статей

Мне понравилась предыдущая подборка по NLP, поэтому сделал еще одну. Кажется могу теперь подаваться в SEO’шники.

1. Canny (1986) – A Computational Approach to Edge Detection. Формализовал критерии оптимального обнаружения границ, заложив основу для извлечения признаков в компьютерном зрении. (edge detection, feature extraction)

2. Lowe (2004) – SIFT: Scale-Invariant Feature Transform. Ввел SIFT – алгоритм для поиска ключевых точек, устойчивых к изменению масштаба и повороту. (feature detection, keypoints, matching)

3. LeCun et al. (1998) – LeNet-5. Показал, что сверточные нейросети (CNN) могут превосходить традиционные методы для распознавания изображений. (convolutional neural networks, deep learning)

4. Krizhevsky et al. (2012) – AlexNet. Сделал глубокие нейросети мейнстримом, победив в ImageNet 2012. Ввел ReLU, Dropout и массово использовал GPU. (deep learning, CNN, ImageNet)

5. He et al. (2015) – ResNet: Deep Residual Learning. Ввел остаточные связи, позволив тренировать сети 100+ слоев без проблем деградации градиента. (residual connections, deep networks, architecture design)

6. Redmon et al. (2016) – YOLO: You Only Look Once. Превратил детекцию объектов в единую задачу регрессии, сделав ее в разы быстрее. (real-time object detection, one-stage detectors)

7. Chen et al. (2020) – SimCLR: Self-Supervised Learning. Показал, что модели могут учиться без разметки. (self-supervised learning, contrastive learning, representation learning)

8. Dosovitskiy et al. (2020) – Vision Transformer (ViT). Доказал, что трансформеры работают в CV, исключив CNN блоки. (transformers, self-attention, image classification)

9. Radford et al. (2021) – CLIP: Learning from Images and Text. Соединил NLP и CV, обучив модель понимать изображения через текстовые описания. (vision-language models, multimodal AI, zero-shot learning)

10. Tan & Le (2019) – EfficientNet. Предложил эффективный способ масштабирования нейросетей, получив SOTA-результаты при меньших затратах. (efficient architectures, AutoML, model scaling)

BY Дмитрий Савостьянов Вещает


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/savostyanov_dmitry/622

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

On Telegram’s website, it says that Pavel Durov “supports Telegram financially and ideologically while Nikolai (Duvov)’s input is technological.” Currently, the Telegram team is based in Dubai, having moved around from Berlin, London and Singapore after departing Russia. Meanwhile, the company which owns Telegram is registered in the British Virgin Islands. Telegram boasts 500 million users, who share information individually and in groups in relative security. But Telegram's use as a one-way broadcast channel — which followers can join but not reply to — means content from inauthentic accounts can easily reach large, captive and eager audiences. For Oleksandra Tsekhanovska, head of the Hybrid Warfare Analytical Group at the Kyiv-based Ukraine Crisis Media Center, the effects are both near- and far-reaching. On Feb. 27, however, he admitted from his Russian-language account that "Telegram channels are increasingly becoming a source of unverified information related to Ukrainian events." Soloviev also promoted the channel in a post he shared on his own Telegram, which has 580,000 followers. The post recommended his viewers subscribe to "War on Fakes" in a time of fake news.
from ar


Telegram Дмитрий Савостьянов Вещает
FROM American