Пост Лены Войты про transfer learning
https://lena-voita.github.io/nlp_course/transfer_learning.html. Из всех постов курса
https://lena-voita.github.io/nlp_course.html занимает второе место после конспекта про эмбеддинги
https://lena-voita.github.io/nlp_course/word_embeddings.html. Понятнее чем у Рудера
https://ruder.io/state-of-transfer-learning-in-nlp/- Логичный переход word2vec -> Cove, Elmo -> GPT, BERT
- Статичные эмбеддинги -> контекстные эмбеддинги
- Под каждую задачу своя модель -> Модель одна, разный формат инпута CLS SENT1 SEP SENT2 END
- Конспекты про Cove, Elmo, GPT, BERT, понятно что откуда берётся, инкрементальные изменения, почему BERT такой какой есть
- Адаптеры, можно не файнтюнить весь BERT
- Бертология, визуализация атеншена, типа на первом слое морфология, потом синтаксис, наверху семантика
#voita