Size: a a a

Natural Language Processing

2020 September 13

A

Aragaer in Natural Language Processing
Докладываю - я попытался применить NER к анализу текста чеков, но оно просто так в лоб не получилось. Тогда я пошел обходным путем - сначала NER по строкам, чтобы разделить список строк на блоки по товарам (один блок - один товар) и всякое левое. Это прокатило. Теперь можно сделать NER в пределах блока с целью найти название и цену.
источник

AW

Alex Wortega in Natural Language Processing
Grigory Frantsuzov
gpt-2 да и gpt-3 подавали как убийцу контентщиков, верстальщиков и писателей с поэтами.А по факту это просто генератор довольно бессвязной шизофазии, просто очень большой
Ну это очень-очень сложные цепи Маркова. С другим принципом работы, но очень близким результатом
источник

SD

Sergey Dulikov in Natural Language Processing
Ну способность к сохранению контекста у них сильно выше
источник

DD

David Dale in Natural Language Processing
Alex Wortega
Ну это очень-очень сложные цепи Маркова. С другим принципом работы, но очень близким результатом
👍 Как же круто, когда люди десакрализируют модные модели! Ведь действительно же, генеративный трансформер - это 512-граммная цепь Маркова с очень хитрым сглаживанием)
источник

AW

Alex Wortega in Natural Language Processing
Sergey Dulikov
Ну способность к сохранению контекста у них сильно выше
Да, но смысла в этом по прежнему немного((
источник

AW

Alex Wortega in Natural Language Processing
David Dale
👍 Как же круто, когда люди десакрализируют модные модели! Ведь действительно же, генеративный трансформер - это 512-граммная цепь Маркова с очень хитрым сглаживанием)
Я понимаю что архитектурно общего между ними как между молотком и трактором с гидромолотом
источник

GF

Grigory Frantsuzov in Natural Language Processing
David Dale
👍 Как же круто, когда люди десакрализируют модные модели! Ведь действительно же, генеративный трансформер - это 512-граммная цепь Маркова с очень хитрым сглаживанием)
Ахаха
источник
2020 September 14

AS

A S in Natural Language Processing
can someone give suggestion on  https://www.kaggle.com/questions-and-answers/182500 question
I am struggle to find out good resources or approach.
источник

B

Brenoritvrezorkre in Natural Language Processing
Есть вопрос. Существуют ли готовые инструменты дистрибутивной семантики, допускающие процессинг словосочетаний?
источник

B

Brenoritvrezorkre in Natural Language Processing
Знаю, что это существует в качестве технологии, но было бы очень хорошо, если бы был просто готовый инструмент, который берёшь и запускаешь.
источник

B

Brenoritvrezorkre in Natural Language Processing
Впрочем, сам я ещё толком не искал.
источник

B

Brenoritvrezorkre in Natural Language Processing
Буду, в общем, рад, если откликнитесь с ответом через @.
источник

B

Brenoritvrezorkre in Natural Language Processing
Нужно для четырёх разных вещей:

1. Восстанавливать общий контекст для заданной группы слов;

2. Находить наиболее близкие группы слов для заданной группы;

3. Восстанавливать контекст выделенной подгруппы слов в контексте / относительно контекста заданной группы слов;

4. Находить наиболее близкие группы слов выделенной подгруппы слов в контексте / относительно контекста заданной группы слов.

3 и 4 нужны в том смысле, что, например, поиск относительно "group" должен отличаться от поиска относительно "group" в "group dynamics" и также отличаться от поиска относительно "group dynamics" полностью как коллекции слов, как и результат поиска относительно "group" в "group dynamics" должен отличаться от результата поиска относительно "group" в "algebraic group".
источник

AS

A S in Natural Language Processing
может кто-нибудь дать предложение по вопросу https://www.kaggle.com/questions-and-answers/182500
Я изо всех сил пытаюсь найти хорошие ресурсы или подход.
источник

NF

Night Fury in Natural Language Processing
Rishi
Anyone worked on few shot learning for text classification before?
not yet
will be working soon
источник

АП

Алексей Пахомов... in Natural Language Processing
A S
может кто-нибудь дать предложение по вопросу https://www.kaggle.com/questions-and-answers/182500
Я изо всех сил пытаюсь найти хорошие ресурсы или подход.
когда работал в институте пытались сделать такую модель, я хотел пойти через nlg для начала, а затем уже переходить к обратной операции
источник

АП

Алексей Пахомов... in Natural Language Processing
работало неплохо , затем на получившимся корпусе можно уже эмбэдинги и все такое учить
источник

AS

A S in Natural Language Processing
Алексей Пахомов
когда работал в институте пытались сделать такую модель, я хотел пойти через nlg для начала, а затем уже переходить к обратной операции
Спасибо за ответ, не могли бы вы немного уточнить?
источник

М

Марк in Natural Language Processing
A S
может кто-нибудь дать предложение по вопросу https://www.kaggle.com/questions-and-answers/182500
Я изо всех сил пытаюсь найти хорошие ресурсы или подход.
источник

AS

A S in Natural Language Processing
Thanks for the reponse
источник