Size: a a a

Natural Language Processing

2020 October 23

SZ

Sasha Zhu in Natural Language Processing
Точно же помню, что было
источник

NS

Nikolay V. Shmyrev in Natural Language Processing
источник

NS

Nikolay V. Shmyrev in Natural Language Processing
второе вроде получше
источник

SZ

Sasha Zhu in Natural Language Processing
и снова спасибо)
источник

МП

Михаил Притугин... in Natural Language Processing
А есть в открытом доступе какая-то модель ответ-вопрос
Типо как те модели от Сбербанка?
источник

SZ

Sasha Zhu in Natural Language Processing
Михаил Притугин
А есть в открытом доступе какая-то модель ответ-вопрос
Типо как те модели от Сбербанка?
диппавлов?
источник
2020 October 24

GF

Grigory Frantsuzov in Natural Language Processing
Sergei Markoff
Про колаб записал. Смотрите, там для участников соревнований для AIJ можно доступ к Кристофари получить.
Сергей, а есть какой-то прогноз - ждать ли колаб в ближайшее время?
источник

SM

Sergei Markoff in Natural Language Processing
Grigory Frantsuzov
Сергей, а есть какой-то прогноз - ждать ли колаб в ближайшее время?
Я скажу в понедельник по времени когда примерно. Там народ много чего зареквестил — и докер, и ещё разные вещи. Пока, кстати, выложили на huggingface все три модели.
источник

GF

Grigory Frantsuzov in Natural Language Processing
Sergei Markoff
Я скажу в понедельник по времени когда примерно. Там народ много чего зареквестил — и докер, и ещё разные вещи. Пока, кстати, выложили на huggingface все три модели.
большое спасибо!
источник

SM

Sergei Markoff in Natural Language Processing
В принципе, для колаба тут есть пример: https://colab.research.google.com/github/sberbank-ai/ru-gpts/blob/master/examples/ruGPT3_generation_example.ipynb#scrollTo=Y8DYR4d6_-w7

Там только параметры генерации дефолтные не особо оптимальные. Что важно учитывать:

1. Убедитесь, что вы смотрите на лучшую модель из доступных, параметр --model_name_or_path должен быть sberbank-ai/rugpt3large_based_on_gpt2
Далее, рекомендуемые параметры генерации:
--temperature=0.9 \
--k=0 \
--p=0.95
Мы изменим дефолтные настройки генерации примера на такие же, для удобства будущих пользователей.
Важно понимать, что в демо-режиме сеть генерирует ровно столько токенов, сколько указано, не останавливаясь на конце первого сформированного документа. Поэтому для больших значений длины она с большой вероятностью начнет после первого документа генерировать следующий, не связанный с ним.
Также, чем длиннее вы дадите ей текст-затравку, тем более подробное и связное продолжение она сформирует. Затравка из анекдота склоняет её к генерации короткого ответа, либо чего-то похожего на общение пользователей в комментариях.
Вот пример генерации с описанными выше параметрами:

ruGPT:
на словах ты лев толстой,
И вижу я, что не для любви
Нынче язык твой, мой лев, не только грузен,
Но и тяжел. И восходит, и падает,
И стучит, как стучат твои зубы.
Наступила зима, и тускнеет солнце,
Все слабее медвяные зори,
И время в ларьке потекло помедленней.
А когда, слегка проветрив его,
Я шел под лавкою в то
ещё пример, тут у вообще Жванецкий получился)
--
ruGPT:
на словах ты лев толстой
Не-не! Я не то что лев, я даже слон не могу.)))
Прихожу на работу (за деньги) а у меня много заданий. А ещё хочу домой и к родителям. Как быть?
Все ваши желания в рамках должностных обязанностей и уважения к работодателю.
А почему бы не притормозить?
Уходи от них... Зачем тебе их проблемы?
Сходи на новое место, пережди там все это и работать дома.
работать в ука
источник

AY

Alexey Yurasov in Natural Language Processing
Sergei Markoff
В принципе, для колаба тут есть пример: https://colab.research.google.com/github/sberbank-ai/ru-gpts/blob/master/examples/ruGPT3_generation_example.ipynb#scrollTo=Y8DYR4d6_-w7

Там только параметры генерации дефолтные не особо оптимальные. Что важно учитывать:

1. Убедитесь, что вы смотрите на лучшую модель из доступных, параметр --model_name_or_path должен быть sberbank-ai/rugpt3large_based_on_gpt2
Далее, рекомендуемые параметры генерации:
--temperature=0.9 \
--k=0 \
--p=0.95
Мы изменим дефолтные настройки генерации примера на такие же, для удобства будущих пользователей.
Важно понимать, что в демо-режиме сеть генерирует ровно столько токенов, сколько указано, не останавливаясь на конце первого сформированного документа. Поэтому для больших значений длины она с большой вероятностью начнет после первого документа генерировать следующий, не связанный с ним.
Также, чем длиннее вы дадите ей текст-затравку, тем более подробное и связное продолжение она сформирует. Затравка из анекдота склоняет её к генерации короткого ответа, либо чего-то похожего на общение пользователей в комментариях.
Вот пример генерации с описанными выше параметрами:

ruGPT:
на словах ты лев толстой,
И вижу я, что не для любви
Нынче язык твой, мой лев, не только грузен,
Но и тяжел. И восходит, и падает,
И стучит, как стучат твои зубы.
Наступила зима, и тускнеет солнце,
Все слабее медвяные зори,
И время в ларьке потекло помедленней.
А когда, слегка проветрив его,
Я шел под лавкою в то
ещё пример, тут у вообще Жванецкий получился)
--
ruGPT:
на словах ты лев толстой
Не-не! Я не то что лев, я даже слон не могу.)))
Прихожу на работу (за деньги) а у меня много заданий. А ещё хочу домой и к родителям. Как быть?
Все ваши желания в рамках должностных обязанностей и уважения к работодателю.
А почему бы не притормозить?
Уходи от них... Зачем тебе их проблемы?
Сходи на новое место, пережди там все это и работать дома.
работать в ука
Длину задавать так:
--length 1000
Пришлось немного поискать что бы это найти..
источник

GF

Grigory Frantsuzov in Natural Language Processing
А у кого-нибудь получалось файнтюнить её на колабе?
источник

AB

Arcady Balandin in Natural Language Processing
Пардон а pet разве не лучше гпт3?
источник
2020 October 25

$

$○| in Natural Language Processing
Подскажите а как приспособить GPT3 от Сбера именно под ведение диалогов? Я видел у них бот который прекрасно общался с юзерами.

Нужно подавать в качестве контекста кусочек диалога и искать следующую сгенерированную фразу в ответе GPT3? Или есть более правильный метод?
источник

AK

Aleksey Kulnevich in Natural Language Processing
$○|
Подскажите а как приспособить GPT3 от Сбера именно под ведение диалогов? Я видел у них бот который прекрасно общался с юзерами.

Нужно подавать в качестве контекста кусочек диалога и искать следующую сгенерированную фразу в ответе GPT3? Или есть более правильный метод?
Подавай на вход контекст диалога, включая последний вопрос, gpt3 тебе сгенерит ответ, на всякий проверь размер их входа, должен быть 2048 токенов
источник

$

$○| in Natural Language Processing
ок, попробую
источник

NS

Nikolay V. Shmyrev in Natural Language Processing
Для практических применений ответы должны быть уже готовы, gpt3 только для выбора из вариантов. Retrieval-based chatbot называется. https://ai.tencent.com/ailab/nlp/dialogue/papers/EMNLP2019_cd.pdf
источник

$

$○| in Natural Language Processing
Мне нужно это для генерации ответов "болталки", в случае если ответов нет совсем. Сперва они ищутся другим методом. А если не находятся то хочу gpt чтобы генерило. Чтобы бот не молчал
источник

D

Dmitry in Natural Language Processing
Шоб он бредил?)
источник

D

Dmitry in Natural Language Processing
Марковскую цепь возьмите
источник