Size: a a a

Natural Language Processing

2020 September 13

SD

Sergey Dulikov in Natural Language Processing
Ну вот да, проблемы я знаю) Интересно какие гпу в итоге решают
источник

AS

Alex Surname in Natural Language Processing
это в реализации https://github.com/nshepperd/gpt-2 и их клонов
источник

AS

Alex Surname in Natural Language Processing
потом нашел реализацию где получилось разбросать на несколько гпу
источник

AS

Alex Surname in Natural Language Processing
Sergey Dulikov
Ну вот да, проблемы я знаю) Интересно какие гпу в итоге решают
для сверх большой модели похоже нужно брать другую реализацию или у меньшать батч
источник

AS

Alex Surname in Natural Language Processing
я полгода назад делал, уже позабывал
источник

AS

Alex Surname in Natural Language Processing
TPU показывал себя плохо, хуже GPU точно
источник

SD

Sergey Dulikov in Natural Language Processing
Интересно
источник

SD

Sergey Dulikov in Natural Language Processing
По результатам или по времени?
источник

AS

Alex Surname in Natural Language Processing
по времени. для результатов какая разница где числа складываются?
источник

AS

Alex Surname in Natural Language Processing
хоть CPU - разницы нет
источник

AS

Alex Surname in Natural Language Processing
там обучение просто днями идет, посему это важно
источник

AS

Alex Surname in Natural Language Processing
+не было вариантов найти в аренду гпу с больше 16 гб РАМ
источник

AS

Alex Surname in Natural Language Processing
я перешел на другой репозиторий, где была паралелизация, удалось запустить 1.5B модель
источник

SD

Sergey Dulikov in Natural Language Processing
Alex Surname
+не было вариантов найти в аренду гпу с больше 16 гб РАМ
С этим проблема да, надеюсь 3090 улучшит ситуацию
источник

AS

Alex Surname in Natural Language Processing
и обучение больших моделей, занятие мягко говоря не дешевое
источник

N

Natalia in Natural Language Processing
Sergey Dulikov
Ну смотря как зарядить, можно давать ему примеры где в начале дается несколько тезисных новостей, а потом скомпанованная статья. Потом давать ему только новости, он будет выдавать статьи.
а вы не читали анализы того, что у гпт всё-таки плоховатая сцепка с реальностью?
источник

N

Natalia in Natural Language Processing
Alex Surname
он будет выдавать другие факты(часто ложные), иногда вообще бред. антиплагиат и не должен такое определяеть
ну так факты фактами, а куски фраз вполне могут ловиться
источник

SD

Sergey Dulikov in Natural Language Processing
Это понятно, я же говорю о том, чтобы обучить ее так, чтобы она не стремилась добавить фактов от себя. Ну утверждаю, что это рабочий вариант, чисто гипотетически
источник

N

Natalia in Natural Language Processing
но это же... невозможно по определению. она работает с цепочками символов, с формой. факт — это не просто семантическая категория, это даже ещё веселее (потому что про внеязыковую реальность). это похоже на нейросетевой машпер, в котором всё равно по-хорошему нужны костыли для постобработки, т.к. гарантировать, что он _не нагенерит_ хотя бы капельки странного, практически невозможно. только тут ещё и в фактчекинге загвоздка без привязки к оригиналу (т.е. свободы больше)
источник

N

Natalia in Natural Language Processing
ну и вообще всем читать https://www.aclweb.org/anthology/2020.acl-main.463/
источник