Size: a a a

Natural Language Processing

2020 August 26

DD

David Dale in Natural Language Processing
Ещё классного бота запустил FB в этом году, там намешаны goal-oriented и болтальная часть.
Но, кажется, они его всерьёз пока никуда не релизнули, только статью опубликовали.
источник

DK

Denis Kirjanov in Natural Language Processing
Alexander Kukushkin
Интересный стрим Татьяны Ландо https://youtu.be/ny3VDGNdlcY?t=111 про лингвистику, Гугл, их чат-бот ассистент и русский язык.
1. Они не используют логи чат-бота, чтобы улучшать ассистент. Чтобы лучше парсить фразы типа "поставь будильник на семь" не смотрят в логи как пользователи пытаются это сделать, а придумывают что-то из головы + как все остальные собирают из открытых источников. По-моему это скорее печально. Интересно как в Алисе, @cointegrated есть что-то публичное на тему?
2. У чат-ботов есть бесполезная часть про болталки и полезная про решение задач (тот же будильник). Сейчас отличный прогресс по болталкам, вспоминаем GPT, и непонятно что делать с решением задач. Похоже, Гугл сейчас как все строит решения на правилах, думает как бы сделать что-то unsupervised как с болталкой
1. явно печально
2. научить gpt их решать?) см. недавний хайп, как гптшка html-код писала. Они даже на фактоиды уже даже как-то начали
источник

DD

David Dale in Natural Language Processing
вот мой TLDR про фейсбучного бота
источник

DD

David Dale in Natural Language Processing
Недавно Facebook Research опубликовали статью про нового чатбота. Вот их блогпост: https://ai.facebook.com/blog/state-of-the-art-open-source-chatbot/. Если у вас нет времени или большого интереса, почитайте его. Если время и интерес есть, почитайте и их большую статью. Она длинная, но затрагивает много вещей, важных для понимания текущего состояния чатботов и NLP в целом. В частности:

1. Размеры моделей продолжают расти. Фейсбучная модель втрое жирнее, чем гугловская Meena (предыдущая SOTA); в ней уже почти 10 миллиардов параметров. Хотя по качеству этот гигант вроде не сильно лучше, чем втрое меньшая модель.
2. Разработчики сблендили несколько подходов к генерации диалоговых ответов и несколько разных датасетов, сфокусированных на диалоговых навыках. Получилась кракозябра, работающая ожидаемо лучше, чем более узкоспециализированые модельки.
3. Для генерации ответов использовали (А) retrieval-модельку, выбирающую ответ, наиболее подходящий под контекст, из готового набора ответов. (Б) классический seq2seq трансформер, генерирующую ответ слово-за-словом, глядя на контекст и готовый префикс ответа. (В) их гибрид, так же генерирующий ответ слово-за-словом, но но глядя так же на ответ, предложенный retrieval-моделью, или на подтянутый по ключевым словам абзац из Википедии.
4. Файн-тюнили модели на трёх датасетах: ConvAI2 (диалоги, где участники общались с учётом описания приписанного им персонажа), Empathetic Dialogues (где один участник описывал свою ситуацию, а другой эмпатично активно слушал), и Wizard of Wikipedia (где обсуждение строилось вокруг релевантного абзаца из Википедии). Разнообразные задачи - разнообразное и поведение получившегося бота.
5. Разные боты друг с другом сравнивались ассессорами side-by-side. Это не настолько секси, как более явные числовые метрики по отдельно взятому диалогу, зато, возможно, результат получается менее шумным.
6. Если оценивать диалоги бота с ботом, то модель с поиском по готовым ответам работает лучше, чем модель с генерацией ответов пословно. А если оценивать диалоги бота с человеком, то наоборот. Из этого следует как минимум то, что бот общается с ботом как-то существенно иначе, чем человек. И ещё, что retrieval подход сдаёт свои позиции довольно медленно.
7. При генерации ответов дофига важно ограничивать пространство возможных реплик. В частности, не допускать слишком коротких ответов или ответов с повторяющимися словами. В результате применения этих простых фильтров качество растёт прям существенно. В ходе своих экспериментов товарищи из фейсбука применяли разные фильтры, и, возможно, непонятные результаты из предыдущего пункта объясняются именно этим.
источник

DK

Denis Kirjanov in Natural Language Processing
болталка, кстати, если она эмпатичная, очень даже небесполезная -- теоретически, от суицида может отговорить, все такое
источник

AK

Alexander Kukushkin in Natural Language Processing
David Dale
Про работу с логами в Алисе публичных докладов я не  помню, кроме короткого рассказа Саши Изосиной про разметку разговоров на Толоке.
Но вообще можно догадаться, что Яндекс в своих продуктах очень data-oriented, и Алиса с ног до головы обвешана разными метриками.
В целом, можно поковыряться в Толоке и найти задания и на транскрибацию аудио, и на классификацию интентов, и на разметку успешности/неуспешности выполнения задач.
На сколько я понял разработчик в Гугле разрабатывают в вакууме, потом деплоят, какой-то сторонний, супер закрытый сервис считает высокоуровневую метрику "доля случаев когда ассистент не понял пользователя", надеятся что фичи улучшит эту метрику. Похоже в Алисе не так
источник

DD

David Dale in Natural Language Processing
Alexander Kukushkin
На сколько я понял разработчик в Гугле разрабатывают в вакууме, потом деплоят, какой-то сторонний, супер закрытый сервис считает высокоуровневую метрику "доля случаев когда ассистент не понял пользователя", надеятся что фичи улучшит эту метрику. Похоже в Алисе не так
В Алисе подобная метрика тоже есть, она используется для приёмки релизов и принятия разных (в основном продуктовых) решений и служит как KPI.
Но есть и разметка, которая для обучения используется.
источник

KL

Kir L in Natural Language Processing
Denis Kirjanov
болталка, кстати, если она эмпатичная, очень даже небесполезная -- теоретически, от суицида может отговорить, все такое
я только что час говорил с ГПТ-2 ботом, дошел до того, что Путин сбил Боинг и отравил Навального по мнению бота, решил закончить диалог :-(
источник

AK

Alex Konst in Natural Language Processing
Kir L
я только что час говорил с ГПТ-2 ботом, дошел до того, что Путин сбил Боинг и отравил Навального по мнению бота, решил закончить диалог :-(
глаза колит?
источник

KL

Kir L in Natural Language Processing
нет, просто разволновался.
источник

KL

Kir L in Natural Language Processing
интересно, насколько сложно прикрутить к ГПТ-2 модели ручку "либеральность", чтобы можно было управлять.
источник

KL

Kir L in Natural Language Processing
как прекрасно, что я скорее всего доживу до этого
источник

DD

David Dale in Natural Language Processing
Kir L
интересно, насколько сложно прикрутить к ГПТ-2 модели ручку "либеральность", чтобы можно было управлять.
Если ты соберёшь датасет и обучишь хороший классификатор либеральности, то с помощью подхода типа plug-and-play LM от Убера можно сделать это хоть сейчас)
источник

C

Constantin in Natural Language Processing
Есть ли готовый инструмент для разбиения предложения на клаузы (русский язык)?
источник

DD

David Dale in Natural Language Processing
Constantin
Есть ли готовый инструмент для разбиения предложения на клаузы (русский язык)?
Кажется, можно взять готовый синтаксический парсер, и поверх него правила написать.
источник

C

Constantin in Natural Language Processing
David Dale
Кажется, можно взять готовый синтаксический парсер, и поверх него правила написать.
Я пробовал udpipe с conllu, но все грустно
источник

C

Constantin in Natural Language Processing
особенно с длинными предложениями
источник

C

Constantin in Natural Language Processing
поэтому я думаю об нейронной сети (предсказывать номер позиции раздела)
источник

YB

Yuri Baburov in Natural Language Processing
Constantin
Я пробовал udpipe с conllu, но все грустно
у udpipe точность не очень высокая для синт парсинга, поэтому и грустно. возьми модель поточнее, и попробуй снова.
источник

AW

Alex Wortega in Natural Language Processing
Товарищи у кого то такое было?
источник