Telegram Group & Telegram Channel
Вы ничего не знаете про AI (NLP), если не читали эти 10 статей

Выбил себе про-план в опенаи, теперь могу делать дип ресерч с кликбейтными заголовками. Потестил на NLP, звучит разумно.


1. Hochreiter & Schmidhuber (1997) – LSTM. Решает проблему исчезающего градиента в RNN, позволяя моделировать длинные зависимости. (LSTM, sequence modeling)

2. Mikolov et al. (2013) – Word2Vec. Ввел плотные векторные представления слов, заложив основу для современных эмбеддингов. (word2vec, embeddings, distributed representations)

3. Charniak (2000) – Probabilistic Parsing. Показал, что вероятностные методы улучшают синтаксический разбор текста. (probabilistic parsing, syntax, NLP pipelines)

4. Bahdanau et al. (2015) – Attention in Seq2Seq. Ввел механизм внимания, улучшив машинный перевод и работу с длинными текстами. (attention mechanism, seq2seq, neural machine translation)

5. Vaswani et al. (2017) – Transformer: Attention Is All You Need. Убрал рекуррентность, введя self-attention, сделав NLP модели быстрее и мощнее. (Transformer, self-attention, deep learning)

6. Devlin et al. (2019) – BERT. Ввел bidirectional attention и pre-training, задав стандарт NLP-моделям. (BERT, masked language modeling, transfer learning)

7. Brown et al. (2020) – GPT-3: Few-Shot Learning. Доказал, что масштабирование параметров улучшает генерацию текста без дообучения. (GPT-3, few-shot learning, autoregressive models)

8. Lewis et al. (2020) – RAG (Retrieval-Augmented Generation). Улучшил генерацию текста, добавив поиск в базе знаний. (retrieval-augmented generation, knowledge-intensive NLP)

9. Christiano et al. (2017) – RLHF (Reinforcement Learning from Human Feedback). Ввел RLHF, позволяя моделям обучаться на человеческих предпочтениях. (RLHF, reinforcement learning, AI alignment)

10. Ouyang et al. (2022) – InstructGPT (RLHF для инструкций). Сделал LLM послушными, научив следовать инструкциям через RLHF. (instruction tuning, RLHF, safe AI)

Пасхалка



group-telegram.com/savostyanov_dmitry/620
Create:
Last Update:

Вы ничего не знаете про AI (NLP), если не читали эти 10 статей

Выбил себе про-план в опенаи, теперь могу делать дип ресерч с кликбейтными заголовками. Потестил на NLP, звучит разумно.


1. Hochreiter & Schmidhuber (1997) – LSTM. Решает проблему исчезающего градиента в RNN, позволяя моделировать длинные зависимости. (LSTM, sequence modeling)

2. Mikolov et al. (2013) – Word2Vec. Ввел плотные векторные представления слов, заложив основу для современных эмбеддингов. (word2vec, embeddings, distributed representations)

3. Charniak (2000) – Probabilistic Parsing. Показал, что вероятностные методы улучшают синтаксический разбор текста. (probabilistic parsing, syntax, NLP pipelines)

4. Bahdanau et al. (2015) – Attention in Seq2Seq. Ввел механизм внимания, улучшив машинный перевод и работу с длинными текстами. (attention mechanism, seq2seq, neural machine translation)

5. Vaswani et al. (2017) – Transformer: Attention Is All You Need. Убрал рекуррентность, введя self-attention, сделав NLP модели быстрее и мощнее. (Transformer, self-attention, deep learning)

6. Devlin et al. (2019) – BERT. Ввел bidirectional attention и pre-training, задав стандарт NLP-моделям. (BERT, masked language modeling, transfer learning)

7. Brown et al. (2020) – GPT-3: Few-Shot Learning. Доказал, что масштабирование параметров улучшает генерацию текста без дообучения. (GPT-3, few-shot learning, autoregressive models)

8. Lewis et al. (2020) – RAG (Retrieval-Augmented Generation). Улучшил генерацию текста, добавив поиск в базе знаний. (retrieval-augmented generation, knowledge-intensive NLP)

9. Christiano et al. (2017) – RLHF (Reinforcement Learning from Human Feedback). Ввел RLHF, позволяя моделям обучаться на человеческих предпочтениях. (RLHF, reinforcement learning, AI alignment)

10. Ouyang et al. (2022) – InstructGPT (RLHF для инструкций). Сделал LLM послушными, научив следовать инструкциям через RLHF. (instruction tuning, RLHF, safe AI)

Пасхалка

BY Дмитрий Савостьянов Вещает


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/savostyanov_dmitry/620

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Two days after Russia invaded Ukraine, an account on the Telegram messaging platform posing as President Volodymyr Zelenskiy urged his armed forces to surrender. Soloviev also promoted the channel in a post he shared on his own Telegram, which has 580,000 followers. The post recommended his viewers subscribe to "War on Fakes" in a time of fake news. "We as Ukrainians believe that the truth is on our side, whether it's truth that you're proclaiming about the war and everything else, why would you want to hide it?," he said. Stocks closed in the red Friday as investors weighed upbeat remarks from Russian President Vladimir Putin about diplomatic discussions with Ukraine against a weaker-than-expected print on U.S. consumer sentiment. Telegram users are able to send files of any type up to 2GB each and access them from any device, with no limit on cloud storage, which has made downloading files more popular on the platform.
from kr


Telegram Дмитрий Савостьянов Вещает
FROM American