Size: a a a

Natural Language Processing

2021 September 05

SancheZz Мов in Natural Language Processing
Да у нас хороший пример как получить сентенс представления через маскированный аттеншн
источник

SancheZz Мов in Natural Language Processing
Можно и чисто токены,но над понимать ,что там сабворды где-то
источник

SancheZz Мов in Natural Language Processing
И их над сложить в реальные слова
источник

TL

Taras Lislisennkis in Natural Language Processing
Turning short answer to a question into a full answer
###
Question: How are you feeling?
Short answer: Sad
Answer is relevant to the question: Yes
Full answer: I am feeling sad
###
Question: How d you feel?
Short answer:  yes. he does not understand
Answer is relevant to the question:

Такой промпт работает на одном примере который я пробую. Но наверняка погрешность будет, а мне нужно минимизировать false positive.
источник

AS

Artem Sergeev in Natural Language Processing
А какая реализация? Какие настройки генерации?
В моём случае помогло буквально несколько "неудачных" исправленных примеров в "затравку" докинуть. На ruLarge.

Но да, GPT как правило, "до идеала" трудно докрутить, "фантазии" много.
источник

TL

Taras Lislisennkis in Natural Language Processing
такую же задачу решали?
источник

AS

Artem Sergeev in Natural Language Processing
Нет, классификации вопросов.
Потребовалось примеров 12 для хорошего результата.
источник

TL

Taras Lislisennkis in Natural Language Processing
А как мою задачу правильно сформулировать на анлийском чтобы поискать?
источник

AS

Artem Sergeev in Natural Language Processing
Затрудняюсь подсказать. Формулировка из "завтравки" выглядит норм. Просто похоже на узкоспециальную задачу. При наличии примеров "похожих, но не таких" задач.

А всё же интересно - с какой реализацией GPT-3 работаете? И с какими настройками?
источник

TL

Taras Lislisennkis in Natural Language Processing
OpenAI.

Я иду снизу вверх, пока что Babbage справлялся. Настройки стандартные, но 0 температура, т.к. правильный ответ только один.
источник

VS

Vyacheslav Sherkunov in Natural Language Processing
Это понятно, когда есть заранее указанные слова, а если только одно, но нужно извлечь из той же ruroberta близкие понятия?
источник

AS

Artem Sergeev in Natural Language Processing
А, счастливый человек с доступом :)

Ну в целом ИМХО правильно делаете.

Другое дело, что всё равно для серьёзной проверки любой модели понадобится массив проверочных примеров. И насколько сильно будет "уплывать" модель надо численно смотреть.

Правила-то тоже косячат, и без надежды одолеть нестандартные примеры.
источник

TL

Taras Lislisennkis in Natural Language Processing
а я думал уже всем дают?
источник

AS

Artem Sergeev in Natural Language Processing
Я тоже :)
Но письмо из Хогвартса что-то так и не пришло.
источник

TL

Taras Lislisennkis in Natural Language Processing
Попробуйте Грегу на почту письмо написать:
https://twitter.com/gdb/status/1286086072103890944?lang=en

Мы так сделали.
источник

AS

Artem Sergeev in Natural Language Processing
Хм, спасибо, попробую.
Но мне казалось, что если он AI не привлёк к обработке почты, то его похоронить должно было под запросами.
источник

TL

Taras Lislisennkis in Natural Language Processing
он форвардит на коллег, насколько mailtrack показал
источник

IT

Ilya Tikhonov in Natural Language Processing
Ну тогда https://rusvectores.org/ , работает норм. Конечно можно отсортировать по близости весь словарь токенов, но это какой-то изврат.
источник

AK

Anton Kolonin in Natural Language Processing
источник

DD

David Dale in Natural Language Processing
Если там в топ 10 NLP фреймоворков нет Huggingface, то это какой-то неправильный обзор.
источник