Size: a a a

Natural Language Processing

2020 December 25

RS

Roman Samarev in Natural Language Processing
Джулия возглавляет по обе стороны. Но левый - это “официальный” из группы https://github.com/JuliaText. Правый - портированный питоновский код. Тормозит из-за обилия некомпилированных регулярных выражений (студенческая работа).
источник

RS

Roman Samarev in Natural Language Processing
CoreNLP медленнее NLTK из-за монструозного конвейера обработки с идеей навешивания объектов аннотаций на любой элемент, выделенный в процессе обработки
источник
2020 December 26

B

Blanco in Natural Language Processing
Привет всем, я работаю над своим проектом, где мне нужно преобразовать слова американского английского в слова английского языка Великобритании и наоборот в соответствии с требованиями пользователя.
Мне было интересно, могу ли я получить какой-нибудь корпус или словарь, содержащий британские слова и соответствующие им слова.
Это было бы мне очень полезно.
благодаря
источник

CT

Cookie Thief in Natural Language Processing
Blanco
Привет всем, я работаю над своим проектом, где мне нужно преобразовать слова американского английского в слова английского языка Великобритании и наоборот в соответствии с требованиями пользователя.
Мне было интересно, могу ли я получить какой-нибудь корпус или словарь, содержащий британские слова и соответствующие им слова.
Это было бы мне очень полезно.
благодаря
oxfordlearnersdictionaries.com обычно содержит британскую и американскую версию слова (если они отличаются), можно попробовать как то их попарсить
источник

KS

Konstantin Smith in Natural Language Processing
Переслано от Eduard KHACHUKAEV
Обновился Корпус тональности русских слов:
http://study.mokoron.com/
источник

KK

Krep Kospit in Natural Language Processing
Добрый день! А Seq2Seq сети и Трансформеры - это разные подходы?
источник

KK

Krep Kospit in Natural Language Processing
Или Трансформеры - это развитие Seq2Seq?
источник

SancheZz Мов in Natural Language Processing
Krep Kospit
Добрый день! А Seq2Seq сети и Трансформеры - это разные подходы?
Нет
источник

SancheZz Мов in Natural Language Processing
Не разные
источник

SancheZz Мов in Natural Language Processing
MLM task использует seq2seq для обучения модели языка
источник

SancheZz Мов in Natural Language Processing
Архитектура трансформера используется для енкодинга декодинга последовательностей
источник

SancheZz Мов in Natural Language Processing
Получается,что seq2seq способ скармливания датки
источник

SancheZz Мов in Natural Language Processing
А трансформеры про архитектуру
источник

KK

Krep Kospit in Natural Language Processing
Так, я вот прочитал про принципы transformer это - http://jalammar.github.io/illustrated-transformer/ , и нашёл урок на PyTorch-сайте https://pytorch.org/tutorials/intermediate/seq2seq_translation_tutorial.html
Там схемы немного разные, но суть вроде та же. Я потому и спросил.
источник

SancheZz Мов in Natural Language Processing
Согласитесь, что при обучении трансформера на MLM мы подаем данные seq2seq?
источник

KK

Krep Kospit in Natural Language Processing
угу
источник

KK

Krep Kospit in Natural Language Processing
Просто пока в голове всё не уложилось
источник

SancheZz Мов in Natural Language Processing
Ну вот ,это просто архитектура ,а seq2seq способ подачи
источник

SancheZz Мов in Natural Language Processing
Может вместо трансформера там быть lstm
источник

SancheZz Мов in Natural Language Processing
И тп
источник