Size: a a a

Natural Language Processing

2021 August 27

ДК

Дмитрий Колодезев... in Natural Language Processing
те возможно что все издания одинаковые
источник

SS

Sergey Sikorskiy in Natural Language Processing
Спасибо. Озон не доставляет туда, где я живу. Я даже адрес ввести не могу.
Я уже попробовал заказать у издательства. Хочется надеяться, что там мне повезет больше.
источник

ДК

Дмитрий Колодезев... in Natural Language Processing
я не про купить на озон. Я про то, что первое издание 85 года такое же как последнее, так что если на либгене есть 1985-го года, оно такое же. Качество, правда, там ужасное.
источник

ДК

Дмитрий Колодезев... in Natural Language Processing
Хотя сам, конечно, удивился и купил на озоне сразу. Не думал что оно есть в продаже
источник

SS

Sergey Sikorskiy in Natural Language Processing
Второе издание - другое.
источник

ДК

Дмитрий Колодезев... in Natural Language Processing
Ага, ну моя книга мне еще не пришла, возможно 3-е издание стереотипно со вторым,
источник

SS

Sergey Sikorskiy in Natural Language Processing
Да, согласен. Второе должно быть переработано, ну а третье - просто переиздание. Автору сейчас должно быть уже много лет.
источник

d

dePuff in Natural Language Processing
Будто он извлечёт даже из своего окна ключевую фразу, которая тебе понравится )
источник

d

dePuff in Natural Language Processing
В общем, или я что-то неправильно делал, но ключевые фразы на русском у меня годные не получились и создалось впечатление, что максимум возможного это ключевые слова, который будет изучать человек, зная как они извлекались ( LSA и т.п.)
источник

KS

Konstantin Shitkov in Natural Language Processing
Можно взять все слова из текста, посчитать для них эмбеддинги тем же USE и эмбеддинг для текста, взять 20 наиболее близких к тексту, сделать рандомные сочетания слов: униграммы-биграмы-триграммы, загнать в T5 - он соберет из них согласованные фразы. Для полученных фраз посчитать перплексию, выбрать самые вероятные, для них опять посчитать эмбеддинги и сравнить по близости с исходным текстом. У меня получалось вполне ок)
источник

d

dePuff in Natural Language Processing
Так кейберт так и работает (без постпроцессинга в t5), только свои эмбединги

В общем, в моей задаче я был не согласен с тем, что есть ключевые слова, но не оставляю надежд это победить
источник

d

dePuff in Natural Language Processing
Условно, если у нас есть текст о стирке цветного белья, то вытащить "стирка цветного белья" я не смог
источник

KS

Konstantin Shitkov in Natural Language Processing
TextRank(что бы влезло в трансформер) + саммаризация?
источник

d

dePuff in Natural Language Processing
Звучит правильно и обещающе.

Я так, своей болью поделился, что надёргать одиночных слов вроде тегов куча способов и все работают. А вот адекватные ключевые фразы...
источник

KS

Konstantin Shitkov in Natural Language Processing
Еще как вариант - взять здоровый ruGTP3 и с помощью фью-шот лернинг нагенерить данных, на которых потом зафайнтюнить что-то поменьше.
источник

Eg

Elena gisly in Natural Language Processing
он умер уже(
источник

AM

Aleksandr Mester in Natural Language Processing
T5 прошла мимо меня. Почему сбор фраз с помощью нее? В чем особенность?
источник

KS

Konstantin Shitkov in Natural Language Processing
Был зафайнтюненый T5)
источник

AM

Aleksandr Mester in Natural Language Processing
На русском, для согласования фраз?
источник

A

Anton in Natural Language Processing
Попробуй multi_rake. Может будет достаточно этого метода
источник