Size: a a a

Natural Language Processing

2021 January 30

AW

Alex Wortega in Natural Language Processing
Anton Eryomin
Коллеги, всем добрый вечер! А что сейчас чаще всего спрашивают на собесах по нлп? Так сказать какой джентельменакий минимум?
Классика мл, представления текста +/- отличия, иногда просят в общих чертах прояснить, сетки- построение, тюнинг, гиперметры.
источник

AE

Anton Eryomin in Natural Language Processing
Ну это кажется в целом про дип лернинг и нейронки. А именно что касается нлп? Кроме вот представления текста. Кажется могут за берт спросить это же по сути сота, наверное еще чуть более простые модели w2v / d2v. Спрашивают ли регулярки?
источник

AW

Alex Wortega in Natural Language Processing
Anton Eryomin
Ну это кажется в целом про дип лернинг и нейронки. А именно что касается нлп? Кроме вот представления текста. Кажется могут за берт спросить это же по сути сота, наверное еще чуть более простые модели w2v / d2v. Спрашивают ли регулярки?
Ну а nlp это не dl и nn?)))

Могут про что угодно спросить. Я в одном месте большую часть про sql и паралельностью разговаривал. Зависит от конторы.
источник

DK

Denis Kirjanov in Natural Language Processing
Alex Wortega
Ну а nlp это не dl и nn?)))

Могут про что угодно спросить. Я в одном месте большую часть про sql и паралельностью разговаривал. Зависит от конторы.
Не только
источник

AE

Anton Eryomin in Natural Language Processing
Ну да, но просто мб какая то своя специфика должна. Как напртмер аугментации текстов это совсем иное
источник

AE

Anton Eryomin in Natural Language Processing
Регулярки это чистое нлп
источник

DD

David Dale in Natural Language Processing
Anton Eryomin
Коллеги, всем добрый вечер! А что сейчас чаще всего спрашивают на собесах по нлп? Так сказать какой джентельменакий минимум?
Я сам не очень много собесился и не очень много собесил, но есть ощущение, что общепризнанного в индустрии "джентльменского минимума" пока не сложилось.

Где-то будут просить жёсткие классические алгоритмы (ведь в том же условном Яндексе, знаменитом своими алгоритмическими задачами, многие из них вполне себе про тексты).
Где-то будут спрашивать про SOTA нейронки.
Где-то будут спрашивать про разные NLPшные задачи, способы их формализации и методы оценки качества: перевод, NER, морфологический анализ, суммаризация, и т.п.
Где-то вообще не будут спрашивать что-то конкретное, а просто интересоваться твоим опытом.
источник

c

care1e55 in Natural Language Processing
Cпрашивали алгоритмы c лайв-коддингом, классический ML, DL. По NLP конкретно говорили про LSTM/GRU, attention
источник

AW

Alex Wortega in Natural Language Processing
care1e55
Cпрашивали алгоритмы c лайв-коддингом, классический ML, DL. По NLP конкретно говорили про LSTM/GRU, attention
Лайв кодинг lstm?
источник

c

care1e55 in Natural Language Processing
Не, на лайв секции былы задачки с нампай и колекциями. Перед этим было тестовое на алгоритмы. Но могут и попросить что-нибуть с литкода уровня medium. Кажется сейчас это стандартно просят
источник

c

care1e55 in Natural Language Processing
Лайв кодинг LSTM: from torch.nn import LSTM
источник
2021 January 31

AK

Alexander Kukushkin in Natural Language Processing
Новый CS224N, автор BERT рассказывает про BERT и компанию https://youtu.be/knTc-NQSjKA
источник
2021 February 01

AL

Alexey Lemeshevski in Natural Language Processing
TT
Какие есть подходы/решения по выделению статистистически значимых слов, их сочетаний из списка фраз?

Положим, есть несколько десятков тысяч запросов пользователей в вольной форме. Нужно выделить части, наиболее часто встречающиеся, чтобы понять, что вообще в этом наборе люди чаще всего хотят)
У меня есть в общем доступе такая штука https://manystat.ru/tools/seo_group_wordstat.html - поиграйтесь с ним :) насчет 10к не уверен - там обычный хостинг... попробуйте пару тысяч вставить. Фраза и частота, через tab. В виде дерева, на мой взгляд, это прикольно анализировать :)
источник

AL

Alexey Lemeshevski in Natural Language Processing
Кстати, а есть какой-нибудь хороший сборник онлайн-инструментов для работы с текстами? Вот тот же топ n-грамм построить, нормализовать формы и т.п.?
источник

T

TT in Natural Language Processing
Alexey Lemeshevski
У меня есть в общем доступе такая штука https://manystat.ru/tools/seo_group_wordstat.html - поиграйтесь с ним :) насчет 10к не уверен - там обычный хостинг... попробуйте пару тысяч вставить. Фраза и частота, через tab. В виде дерева, на мой взгляд, это прикольно анализировать :)
Спасибо
источник

BS

Bogdan Salyp in Natural Language Processing
Кто разбирается, подскажите, почему в свич трансформере не стакают слой с экспертами?
источник

BS

Bogdan Salyp in Natural Language Processing
Просто не дошли руки ещё или есть какой-то подвох?
источник

SancheZz Мов in Natural Language Processing
Bogdan Salyp
Кто разбирается, подскажите, почему в свич трансформере не стакают слой с экспертами?
Там же в итоге они одного только выбирают жеж?
источник

SancheZz Мов in Natural Language Processing
Лучшего
источник

BS

Bogdan Salyp in Natural Language Processing
Да
Так над этим слоем поставить ещё один такой же
источник