Size: a a a

Natural Language Processing

2020 October 15

OS

Oleg Serikov in Natural Language Processing
а в наташе нет готового экстрактора для организаций или я не нашёл?
источник

MF

M F in Natural Language Processing
Oleg Serikov
а в наташе нет готового экстрактора для организаций или я не нашёл?
словнет нер точно есть, или ярги надо?
источник

OS

Oleg Serikov in Natural Language Processing
M F
словнет нер точно есть, или ярги надо?
ой что угодно)
источник

OS

Oleg Serikov in Natural Language Processing
а мб знаете, есть какая-то дока по словнету? а то классно, что можно нарисовать маркап, но список методов объекта NER кажется не лишним
источник

OS

Oleg Serikov in Natural Language Processing
никак не перестроюсь на новое 404 на ридзедокс
источник

OS

Oleg Serikov in Natural Language Processing
M F
словнет нер точно есть, или ярги надо?
спасибо)
источник
2020 October 16

IP

Igor Panteleev in Natural Language Processing
Все привет, может кто-нибудь думал на тем как ускорить yargy? У  меня получаются очень большие грамматики которые работают приличное время (30 секунд и более), я это использую для генерации ответов в своём чат боте  и получается непростительно долго

Но результат ответа меня полностью устраивает

Может кто-то пробовал прикрутить cyton или еще какие-нибудь варианты?
источник

SK

Sergei Korolev in Natural Language Processing
Ребят, всем привет!
Подскажите, есть ли библиотека / алгоритм для разделения русских слов по корням?

Например:
Электромонтаж = электро и монтаж (электричество / электрический даже лучше)
источник

YB

Yuri Baburov in Natural Language Processing
Igor Panteleev
Все привет, может кто-нибудь думал на тем как ускорить yargy? У  меня получаются очень большие грамматики которые работают приличное время (30 секунд и более), я это использую для генерации ответов в своём чат боте  и получается непростительно долго

Но результат ответа меня полностью устраивает

Может кто-то пробовал прикрутить cyton или еще какие-нибудь варианты?
Просто делаешь сетку на сгенерированном датасете.
источник

MK

Max Kuznetsov in Natural Language Processing
Igor Panteleev
Все привет, может кто-нибудь думал на тем как ускорить yargy? У  меня получаются очень большие грамматики которые работают приличное время (30 секунд и более), я это использую для генерации ответов в своём чат боте  и получается непростительно долго

Но результат ответа меня полностью устраивает

Может кто-то пробовал прикрутить cyton или еще какие-нибудь варианты?
Я начинаю думать. Переписать на   c, go и т.п., но надо начинать с pymorphy
источник

YB

Yuri Baburov in Natural Language Processing
Max Kuznetsov
Я начинаю думать. Переписать на   c, go и т.п., но надо начинать с pymorphy
Вместо pymorphy можно статическую базу использовать. Ну будет она весить 300 мб вместо 10 мб... По современным меркам -- пустяк.
источник

AK

Alexander Kukushkin in Natural Language Processing
Igor Panteleev
Все привет, может кто-нибудь думал на тем как ускорить yargy? У  меня получаются очень большие грамматики которые работают приличное время (30 секунд и более), я это использую для генерации ответов в своём чат боте  и получается непростительно долго

Но результат ответа меня полностью устраивает

Может кто-то пробовал прикрутить cyton или еще какие-нибудь варианты?
Пробовали запускать с Pypy?
источник

IK

Ilya Kazakov in Natural Language Processing
Подскажите, пожалуйста, где можно раздобыть ru-sentiment? Во всех порядочных местах он удалён. Может, у кого-то завалялся с прошлых времён и он может поделиться?
источник

DV

Dima Veselov in Natural Language Processing
источник

IK

Ilya Kazakov in Natural Language Processing
Огромное спасибо!!
источник

RS

Roman Samarev in Natural Language Processing
Max Kuznetsov
Я начинаю думать. Переписать на   c, go и т.п., но надо начинать с pymorphy
Если переписывать, то под этот стек - https://github.com/JuliaText/TextAnalysis.jl
источник

D

Dmitry in Natural Language Processing
Хм, Julia не самый распространенный язык сейчас.
источник

RS

Roman Samarev in Natural Language Processing
Ну так и наработки переносить - не один месяц
источник

D

Dmitry in Natural Language Processing
)))
источник

RS

Roman Samarev in Natural Language Processing
Просто из Julia-кода можно напрямую вызывать, что-нибудь уже наработанное. Был у нас некоторое время, пока не переписали, кусок, который NLTK использовал
источник