Size: a a a

Natural Language Processing

2020 September 02

IR

Ilkin Ramazanov in Natural Language Processing
Elena
SVM или если хочется нейросетей то простой MLP
Я читал в инете что naive bayes лучше всего подходит. Но на деле оказалось он полный тормоз
источник

AS

Alex Surname in Natural Language Processing
Ilkin Ramazanov
Я читал в инете что naive bayes лучше всего подходит. Но на деле оказалось он полный тормоз
ну так на каком этапе тормоза?
источник

E

Elena in Natural Language Processing
Ilkin Ramazanov
Скорость применения
а вообще возьми Sklearn и попробуй все модели для классификации с измерением времени тренировки и времени классификации, и сравни
источник

AS

Alex Surname in Natural Language Processing
там самое тяжело это сегментирование слов
источник

IR

Ilkin Ramazanov in Natural Language Processing
Alex Surname
ну так на каком этапе тормоза?
Обучение
источник

AS

Alex Surname in Natural Language Processing
по ходу для всех вариантов что тут предлагается
источник

AS

Alex Surname in Natural Language Processing
нужно сегментировать слова
источник

AS

Alex Surname in Natural Language Processing
Ilkin Ramazanov
Обучение
профилировать обучение нужно
источник

E

Elena in Natural Language Processing
Ilkin Ramazanov
Я читал в инете что naive bayes лучше всего подходит. Но на деле оказалось он полный тормоз
нет, наив байес очень простой для текста, его можно за бейслайн взять
источник

AS

Alex Surname in Natural Language Processing
Ilkin Ramazanov
Обучение
там кроме сегментирования слов нет тяжелых вычислений
источник

IR

Ilkin Ramazanov in Natural Language Processing
Ясненько. Спс за помощь:)) попробую немного с данными поиграться
источник

IR

Ilkin Ramazanov in Natural Language Processing
Наверное проблема в них
источник

E

Elena in Natural Language Processing
Ilkin Ramazanov
Я читал в инете что naive bayes лучше всего подходит. Но на деле оказалось он полный тормоз
предобработка с нормализацией текста + TF-IDF векторизация + SVM нормальный вариант для текста. Еще можно попробовать FastText и их модель собственную для классификации
источник

SP

Sebastian Pereira in Natural Language Processing
Привет! Друзья, а какой у нас есть датасет для выражения согласия/несогласия, для русского языка. Самый глупый классификатор обучить.
источник

DD

David Dale in Natural Language Processing
Ilkin Ramazanov
Ребят какие модели лучше всего подходят для классификации текста? Важна скорость
Код для питонячьего sklearn: make_pipeline(CountVectorizer(), LogisticRegression()). Иногда этот бейзлайн сложно большими нейронками по качеству побить)
источник

AS

Alex Surname in Natural Language Processing
Elena
предобработка с нормализацией текста + TF-IDF векторизация + SVM нормальный вариант для текста. Еще можно попробовать FastText и их модель собственную для классификации
нет, оверхед после сегментирования слов больше чем для БАйеса, мы же скорость рассматриваем
источник

E

Elena in Natural Language Processing
да, я согласна про скорость, но и качество заметно лучше
источник

IR

Ilkin Ramazanov in Natural Language Processing
Elena
предобработка с нормализацией текста + TF-IDF векторизация + SVM нормальный вариант для текста. Еще можно попробовать FastText и их модель собственную для классификации
я почти также делал только использовал bag of words instead of td-idf
источник

E

Elena in Natural Language Processing
в простых моделях в итоге самый долгий этап - это обработка текста
источник

IR

Ilkin Ramazanov in Natural Language Processing
А как вообще понять что лучше юзать bag of words or tf idf?
источник