Size: a a a

Natural Language Processing

2021 July 07

TM

Toemik Mnemonic in Natural Language Processing
Мне просто как ещё гораздо более не настоящему NLPшнику не очень понятно насколько , пока, легко ли  будет прекратить код из какой нить тетрадки в Кагле к веб сервису . А API SpaCy да удобно )
источник

d

dePuff in Natural Language Processing
Подглядеть гитхабе как в какой-нибудь Flask  пихают модельку
источник

d

dePuff in Natural Language Processing
Продвинутые парни всё равно модельки во что-нить конвертируют для шустрого интерференса
источник

AW

Alex Wortega in Natural Language Processing
источник

AW

Alex Wortega in Natural Language Processing
Ребят, я обучил модель суммаризации
источник

AW

Alex Wortega in Natural Language Processing
И у меня такое:
источник

AW

Alex Wortega in Natural Language Processing
Ну те она в целом правильно работает, но местами инвертирует новости или заменяет имена
источник

TM

Toemik Mnemonic in Natural Language Processing
Ну да . А касательно подхода с косинусным расстояниям что думаете , стоит продолжать ?)
источник

d

dePuff in Natural Language Processing
Хочу деталей. Модель, датасет
источник

d

dePuff in Natural Language Processing
Я не понимаю зачем )
Классификация и классификация.
источник

AW

Alex Wortega in Natural Language Processing
Gpt3 small gazeta ru dataset, 4 эпохи, 1024 контекст lengt

max_length=1000, no_repeat_ngram_size=3, repetition_penalty=1.0, do_sample=True, top_k=0, top_p=0.95, temperature=0.000001)
 

При генерации
источник

TM

Toemik Mnemonic in Natural Language Processing
Понял ) спасибо за ответы )
источник

AW

Alex Wortega in Natural Language Processing
Ну или например Манхэттен на Марс заменяет
источник

IG

Ilya Gusev in Natural Language Processing
а температура там такая специально? просто при такой температуре распредление вырождается в one-hot и do_sample буквально бесполезен
источник

NK

Nikolay Karelin in Natural Language Processing
Типические галлюцинации ;)
источник

AW

Alex Wortega in Natural Language Processing
Ду сэмпл весит бесполезным, это правда. Температура такая чтобы сетка меньше додумывала из распределения
источник

AW

Alex Wortega in Natural Language Processing
Можно вообще ей предложить использовать только слова из текста?
источник

IG

Ilya Gusev in Natural Language Processing
в теории - да, можно в bad_words_ids запихать все токены не из текста
источник

AW

Alex Wortega in Natural Language Processing
А как?
источник

AW

Alex Wortega in Natural Language Processing
Токенов не из контекста дофига же
источник