Telegram Group & Telegram Channel
Дмитрий Савостьянов Вещает
Вы ничего не знаете про AI (NLP), если не читали эти 10 статей Выбил себе про-план в опенаи, теперь могу делать дип ресерч с кликбейтными заголовками. Потестил на NLP, звучит разумно. 1. Hochreiter & Schmidhuber (1997) – LSTM. Решает проблему исчезающего…
Вы ничего не знаете про AI (Computer Vision), если не читали эти 10 статей

Мне понравилась предыдущая подборка по NLP, поэтому сделал еще одну. Кажется могу теперь подаваться в SEO’шники.

1. Canny (1986) – A Computational Approach to Edge Detection. Формализовал критерии оптимального обнаружения границ, заложив основу для извлечения признаков в компьютерном зрении. (edge detection, feature extraction)

2. Lowe (2004) – SIFT: Scale-Invariant Feature Transform. Ввел SIFT – алгоритм для поиска ключевых точек, устойчивых к изменению масштаба и повороту. (feature detection, keypoints, matching)

3. LeCun et al. (1998) – LeNet-5. Показал, что сверточные нейросети (CNN) могут превосходить традиционные методы для распознавания изображений. (convolutional neural networks, deep learning)

4. Krizhevsky et al. (2012) – AlexNet. Сделал глубокие нейросети мейнстримом, победив в ImageNet 2012. Ввел ReLU, Dropout и массово использовал GPU. (deep learning, CNN, ImageNet)

5. He et al. (2015) – ResNet: Deep Residual Learning. Ввел остаточные связи, позволив тренировать сети 100+ слоев без проблем деградации градиента. (residual connections, deep networks, architecture design)

6. Redmon et al. (2016) – YOLO: You Only Look Once. Превратил детекцию объектов в единую задачу регрессии, сделав ее в разы быстрее. (real-time object detection, one-stage detectors)

7. Chen et al. (2020) – SimCLR: Self-Supervised Learning. Показал, что модели могут учиться без разметки. (self-supervised learning, contrastive learning, representation learning)

8. Dosovitskiy et al. (2020) – Vision Transformer (ViT). Доказал, что трансформеры работают в CV, исключив CNN блоки. (transformers, self-attention, image classification)

9. Radford et al. (2021) – CLIP: Learning from Images and Text. Соединил NLP и CV, обучив модель понимать изображения через текстовые описания. (vision-language models, multimodal AI, zero-shot learning)

10. Tan & Le (2019) – EfficientNet. Предложил эффективный способ масштабирования нейросетей, получив SOTA-результаты при меньших затратах. (efficient architectures, AutoML, model scaling)



group-telegram.com/savostyanov_dmitry/622
Create:
Last Update:

Вы ничего не знаете про AI (Computer Vision), если не читали эти 10 статей

Мне понравилась предыдущая подборка по NLP, поэтому сделал еще одну. Кажется могу теперь подаваться в SEO’шники.

1. Canny (1986) – A Computational Approach to Edge Detection. Формализовал критерии оптимального обнаружения границ, заложив основу для извлечения признаков в компьютерном зрении. (edge detection, feature extraction)

2. Lowe (2004) – SIFT: Scale-Invariant Feature Transform. Ввел SIFT – алгоритм для поиска ключевых точек, устойчивых к изменению масштаба и повороту. (feature detection, keypoints, matching)

3. LeCun et al. (1998) – LeNet-5. Показал, что сверточные нейросети (CNN) могут превосходить традиционные методы для распознавания изображений. (convolutional neural networks, deep learning)

4. Krizhevsky et al. (2012) – AlexNet. Сделал глубокие нейросети мейнстримом, победив в ImageNet 2012. Ввел ReLU, Dropout и массово использовал GPU. (deep learning, CNN, ImageNet)

5. He et al. (2015) – ResNet: Deep Residual Learning. Ввел остаточные связи, позволив тренировать сети 100+ слоев без проблем деградации градиента. (residual connections, deep networks, architecture design)

6. Redmon et al. (2016) – YOLO: You Only Look Once. Превратил детекцию объектов в единую задачу регрессии, сделав ее в разы быстрее. (real-time object detection, one-stage detectors)

7. Chen et al. (2020) – SimCLR: Self-Supervised Learning. Показал, что модели могут учиться без разметки. (self-supervised learning, contrastive learning, representation learning)

8. Dosovitskiy et al. (2020) – Vision Transformer (ViT). Доказал, что трансформеры работают в CV, исключив CNN блоки. (transformers, self-attention, image classification)

9. Radford et al. (2021) – CLIP: Learning from Images and Text. Соединил NLP и CV, обучив модель понимать изображения через текстовые описания. (vision-language models, multimodal AI, zero-shot learning)

10. Tan & Le (2019) – EfficientNet. Предложил эффективный способ масштабирования нейросетей, получив SOTA-результаты при меньших затратах. (efficient architectures, AutoML, model scaling)

BY Дмитрий Савостьянов Вещает


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/savostyanov_dmitry/622

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Following this, Sebi, in an order passed in January 2022, established that the administrators of a Telegram channel having a large subscriber base enticed the subscribers to act upon recommendations that were circulated by those administrators on the channel, leading to significant price and volume impact in various scrips. On Telegram’s website, it says that Pavel Durov “supports Telegram financially and ideologically while Nikolai (Duvov)’s input is technological.” Currently, the Telegram team is based in Dubai, having moved around from Berlin, London and Singapore after departing Russia. Meanwhile, the company which owns Telegram is registered in the British Virgin Islands. At the start of 2018, the company attempted to launch an Initial Coin Offering (ICO) which would enable it to enable payments (and earn the cash that comes from doing so). The initial signals were promising, especially given Telegram’s user base is already fairly crypto-savvy. It raised an initial tranche of cash – worth more than a billion dollars – to help develop the coin before opening sales to the public. Unfortunately, third-party sales of coins bought in those initial fundraising rounds raised the ire of the SEC, which brought the hammer down on the whole operation. In 2020, officials ordered Telegram to pay a fine of $18.5 million and hand back much of the cash that it had raised. So, uh, whenever I hear about Telegram, it’s always in relation to something bad. What gives? What distinguishes the app from competitors is its use of what's known as channels: Public or private feeds of photos and videos that can be set up by one person or an organization. The channels have become popular with on-the-ground journalists, aid workers and Ukrainian President Volodymyr Zelenskyy, who broadcasts on a Telegram channel. The channels can be followed by an unlimited number of people. Unlike Facebook, Twitter and other popular social networks, there is no advertising on Telegram and the flow of information is not driven by an algorithm.
from tw


Telegram Дмитрий Савостьянов Вещает
FROM American