Size: a a a

Natural Language Processing

2021 June 28

SancheZz Мов in Natural Language Processing
Формулу достаточно посмотреть)
источник

SancheZz Мов in Natural Language Processing
Что при высокой частоте в документе ,он редкий в других, следовательно он специфичен для таких документов
источник

SancheZz Мов in Natural Language Processing
Возможно документы того же класса в данном токене обладают той же мерой тфидф
источник

SancheZz Мов in Natural Language Processing
Но все вышеуказанные фразы кроме редкий требуют подтверждения как гипотезы)
источник

🐙

🐙 in Natural Language Processing
Ок, значит "специфичность" мне подойдёт :)
источник
2021 June 29

SS

Sergey Sikorskiy in Natural Language Processing
источник

B

Banof in Natural Language Processing
🔫 User кикнут — вернуть этого пользователя можно только разбаном в настройках чата.

Проголосовавшие за кик:
@LoneGeek, @cypic, @Andrew_Valukhov, @Fushur, @stringersolo
При поддержке Золота Бородача
источник

RY

Ruslan515 Y in Natural Language Processing
кто подскажет? https://www.tensorflow.org/text/tutorials/classify_text_with_bert использую эту статью для начала работы. создаю окружение и ставлю tf с помощью команды conda create -n tf-gpu tensorflow-gpu. tf.__version__ == 2.4.1. GPU при этом доступен. затем ставлю tensorflow-text и становиться tf.__version__ == 2.5 при этом GPU уже не доступен. что не так?
источник

OR

Oleg Ruban in Natural Language Processing
Всем привет!

Ребята, подскажите, есть ли нейросеть, готовые библиотеки или прочие решения, которые позволяют исправлять пунктуацию (или с нуля расставлять в местах, где нет) в русскоязычном тексте (не только запятые)?

Недавно сталкивался с такой моделью: https://habr.com/ru/company/barsgroup/blog/563854/ но там она много весит и работает только с запятыми (и то не идеально). Есть ли аналоги получше?
источник

SS

Sergey Shulga in Natural Language Processing
Поиск не пробовали по группе?
источник

OR

Oleg Ruban in Natural Language Processing
https://github.com/vlomme/Bert-Russian-punctuation по поиску только на такую попадал, но по ней никакой информации о тестировании и показателях метрик точности нет, поэтому и интересуюсь у более опытных - есть ли ещё аналоги
источник

КМ

Кибер Медик... in Natural Language Processing
Где-то с полгода назад тут спрашивал, мне скинули только Bert-Russian-punctuation. В публичном доступе пока получается только она и про которую я написал статью.
источник

OR

Oleg Ruban in Natural Language Processing
жаль, направление нужное для многих NLP-шников хотя бы ради чистки данных перед обучением моделей
источник

K

Kutuz4 in Natural Language Processing
Товарищи, возможно вопрос не совсем по NLP, но кто-нибудь знает хорошие датасеты для lypsync? В открытом доступе
источник

КЗ

Катя Забабурина... in Natural Language Processing
всем привет! знает ли кто-нибудь адекватный способ разметки веса для слов оценочной лексики (желательно от -1 до 1, но не обязательно)?
источник

d

dePuff in Natural Language Processing
И  когда через два часа зависимости разрулятся, выяснится, что четверть параметров в запинываемом коде deprecated, а другая четверть давным-давно deprecated

Это NLP
источник

E

Elena in Natural Language Processing
tensorflow не так :)
источник

NS

Nikolay V. Shmyrev in Natural Language Processing
источник

NS

Nikolay V. Shmyrev in Natural Language Processing
Это tensorflow. Ещё с переходом с 0.8 на 1.0 такая ерунда была, 4 года назад. С тех пор ничего не изменилось.
источник

🐙

🐙 in Natural Language Processing
Ребят, подскажите по gensim: натравливаю LDA модельку на корпус из несколько сотен текстов, ставлю количество тем равным количеству текстов (предполагаем что все тексты на разную тему).  Вопрос такой: когда вывожу на печать темы, там есть индекс темы + слова темы с весами, и вот этот идекс темы - можно считать его привязанным к тексту (скажем, текст 5 - и индекс темы тоже 5) или они случайно генерируются?

Опытным путём выяснил, что скорее случайные.
источник