Size: a a a

Natural Language Processing

2021 June 08

∫(Dave)dx = ( ͡° ͜ʖ ... in Natural Language Processing
Я эту же модель в юпитере запускаю и она на СПУ считается как раз за 10 сек
источник

FF

Futorio Franklin in Natural Language Processing
Фреймворк для бота асинхронный?
источник

FF

Futorio Franklin in Natural Language Processing
Без кода наугад сложно понять
источник

∫(Dave)dx = ( ͡° ͜ʖ ... in Natural Language Processing
aiogram, да
источник

∫(Dave)dx = ( ͡° ͜ʖ ... in Natural Language Processing
Могу скинуть в личку, там код бота строк 20
источник

FF

Futorio Franklin in Natural Language Processing
Давай
источник

AZ

Alexandra Zh in Natural Language Processing
Всем привет! Перелопатила кучу всего, но так и не могу понять, имеет ли смысл делать следующее: есть желание обучить классификатор на базе ruGPT3, который бы учитывал контекст. Скажите, пожалуйста, кто-нибудь сталкивался с подобным, получая хотя бы удовлетворительные результаты?
Спасибо заранее!
источник

D

Dmitriy in Natural Language Processing
а вам точно для классификации  gpt-3 нужен ?
источник

D

Dmitriy in Natural Language Processing
BERT кажется подойдет много лучше
источник

AZ

Alexandra Zh in Natural Language Processing
Ну, хотелось бы контекст учитывать. Вот у OpenAI прекрасно все получается, хотела любопытства ради проверить, как будет подобное работать у аналога
источник

AZ

Alexandra Zh in Natural Language Processing
С ним пробовала, там вопросов нет вообще, но снова-таки — хотелось бы еще попробовать prompt engineering в задачах классификации и посмотреть, насколько ругпт3 способна это делать)
источник

AP

Alexander Pimenov in Natural Language Processing
Год назад развлекался с похожим, база была GPT-2 но я надеюсь вы понимаете, что это тоже самое что GPT-3, правда язык был немецкий. Получилось побить немного BERT правда просто слоя классификации недостаточно, я экспериментировал с капсульными слоями.
https://github.com/DrFirestream/NLP
Здесь отчет есть и код с BERT/GPT-2
источник

AZ

Alexandra Zh in Natural Language Processing
Да, понимаю, конечно, больше параметров только, ну и еще есть особенности 🙂 Но в целом — архитектуры там практически идентичны, это правда.

Посмотрю сейчас репозиторий, спасибо, что поделились!
источник

AP

Alexander Pimenov in Natural Language Processing
именно в ruGPT-3 и параметров примерно столько же )
источник

AZ

Alexandra Zh in Natural Language Processing
А, да? Там же, вроде как, анонсировались апдейты)
источник

AP

Alexander Pimenov in Natural Language Processing
справедливости ради, это сейчас самая крупная русскоязычная GPT модель, но до OpenAI (и китайцев с корейцами) как до луны. С другой стороны, нам от терабайта весов толку все равно нет, на доступных ресурсах ничего подобного не уместить )
источник

AZ

Alexandra Zh in Natural Language Processing
Соглашусь.
Но также есть серверлесс и апи, так что тут уже можно развлекаться)

Читаю сейчас описание проекта в репо, хочу сразу задать вопрос — сколько времени у вас занял проект?
источник

AZ

Alexandra Zh in Natural Language Processing
И я правильно понимаю, что CapsNets использовались для квантизации?
источник

AP

Alexander Pimenov in Natural Language Processing
Я мало кода писал для него, в основном соединял чужой, пришлось довольно много экспериментов проводить на GPU, но это не очень много времени заняло, пару недель наверное.
источник

AZ

Alexandra Zh in Natural Language Processing
Ага, спасибо большое)
источник