Size: a a a

Natural Language Processing

2021 June 07

РН

Роман Некрасов... in Natural Language Processing
Коллеги, если вы претендуете на знания лингвистов, то в знак протеста я выхожу из чата
источник

E

Elena in Natural Language Processing
выходите
источник

N

Natalia in Natural Language Processing
*на этом месте лингвисты этого чата почесали в затылке*
источник

Е

Егорка in Natural Language Processing
Я не лингвист, но ко многим активным членам чата так и относился.
источник

SS

Sergey Sikorskiy in Natural Language Processing
Лингвисты чата, а совершенно случайно в последнее время словари управлений русских глаголов в свободном доступе не появились?
источник

K

Ksenia in Natural Language Processing
Такой странный
источник

K

Ksenia in Natural Language Processing
Не претендую на знания по лингвистике, но читала Linguistic Fundamentals for NLP by Emily Bender, очень рекомендую обе части
источник

K

Ksenia in Natural Language Processing
А почему Кронгауза надо читать, интересно, и что конкретно? Я вроде читала у него что-то
источник

SancheZz Мов in Natural Language Processing
Вся терминология в принципе это система координат в одних это одно значение в других иное, спорить об этом одно и тоже что из-за политики или веры)
источник

K

Ksenia in Natural Language Processing
Нашла у него учебник по семантике... не читала. Лучше вот эту книгу Эмили Бендер читать, вторую часть, 100 essentials from Semantics and Pragmatics, она коротенькая
источник

N

Natalia in Natural Language Processing
возможно, что и нет
источник
2021 June 08

SM

Sasha Marova in Natural Language Processing
Раз уж пошла такая пьянка,можно ещё к терминам? Файнтьюнить и дообучать- это разные вещи,да?
источник

FF

Futorio Franklin in Natural Language Processing
дообучение относится к unsupervised части (например есть текст из интересующего домена), в то время как fine-tune относится к конкретной задаче (классификация и тд...), если я не ошибаюсь
источник

E

Elena in Natural Language Processing
мне кажется, что дообучение это когда начинаешь с какого-то чек-пойнта и продолжаешь дальше обучать, а файн-тюнинг - это обучение предобученнной модели на твоем датасете и с твоими задачами. Но это неточно.
источник

∫(Dave)dx = ( ͡° ͜ʖ ... in Natural Language Processing
Ребят, привет, может у вас есть идеи, а то я совсем уже в прострации…

Модель (нейронка) работает быстро на мощностях машины (jupyter n) и на виртуальных (в гугл колабе) (к примеру, 10 сек), но если создать телеграм бота, который просто использует модель - то её работа занимает в 30 раз больше времени (6 минут)..

Нагрузка на компьютер такая же, работает долго и с ботом в visual studio, и если написать его в google colab, и в jupyter n
источник

VP

Vladimir P in Natural Language Processing
загружаешь заново модель на каждый запрос?
источник

∫(Dave)dx = ( ͡° ͜ʖ ... in Natural Language Processing
неа, но тут речь об одном единственном запросе, то есть, если просто использовать модель в Google C - то один запуск модели с одним X и получение результата занимает 10 сек. А в боте тот же самый 1 X занимает 6 минут.

также отмечу, что это не скорость бота ибо если перед моделью вставить простой print(smth) и тоже самое после неё, то он напишет это только один раз и довольно быстро. То есть, застряёт всё именно на модели
источник

FF

Futorio Franklin in Natural Language Processing
gpu работает в этот момент?
источник

FF

Futorio Franklin in Natural Language Processing
Может быть он просто на cpu считает
источник

∫(Dave)dx = ( ͡° ͜ʖ ... in Natural Language Processing
Не, модель полностью на CPU. И в гугл колабе я убрал доп помощь от GPU/TPU
источник