Size: a a a

Natural Language Processing

2021 August 27

AS

Artem Sergeev in Natural Language Processing
хотя, чего там. На текущий момент даже просто "самый релевантный участок в тексте" должен дать неплохие по моим меркам результаты. Но, опять же, есть ведь вопросы вида: "Какие были руки у князя Андрея? А какие у Пьера?"
Или "Кто были адъютанты Кутузова?".
источник

AS

Artem Sergeev in Natural Language Processing
ещё вот кстати, посмотрев на граф, который даёт выше Pullenti, моя мысль: в графе знаний довольно легко видеть общность. Вот Линкольн и Джефферсон по графу мужчины и жили в США (обидным образом, общность "президент США" не видна, но это нюансы.

я решил GPT3 спросить, XL на этот раз:

Человек: Что общего у Томаса Джефферсона и Авраама Линкольна?
ИИ:
1) Оба американцы.
2) Оба были убиты. ⊘
3) Оба принадлежали к Демократической партии. ±
4) Оба выступали за освобождение рабов.
5) Оба выдвигали одинаковые демократические программы. ±
6) Один был военным, а другой дипломатом. ⊘
7) Оба имели избирательные кампании, в которых победили.
8) Оба боролись за равноправие для рабов.
9) Оба развили демократию, сменив коррумпированную элиту.
10) Обоих убили. ⊘
11) Оба похоронены в Белом Доме. ⊘
12) Оба являлись президентами.


(зачёркнуто это я проставлял)
Ну то есть, за исключением пары неудачных моментов, довольно неплохо. А главное "владение контекстом": и то, что требуется сравнение, и что сравниваются двое, да и "по фактам" большей частью нормально.

Ну вот это ведь пример дедукции? В интернете ничего кусочно из этого не ищется, т.е. вроде бы неоткуда взять "готовое" или даже "похожее".
источник

AS

Artem Sergeev in Natural Language Processing
а, ну и из смешного:

Человек: Что общего у Гагарина и Армстронга?
ИИ: Гагарин - первый человек в космосе.
Армстронг - первый астронавт.
Но по сути оба они - обманщики.

Это я прям поклясться готов, что в интернете должно быть, но найти не смог :)
источник

AS

Artem Sergeev in Natural Language Processing
по крайней мере, такой контекст в рунете и книгах чётко существует
источник

A

Anton in Natural Language Processing
😁такие перлы доставляют конечно
источник

A

Anton in Natural Language Processing
особенно когда работаешь с обсценной лексикой
источник

BS

Bogdan Salyp in Natural Language Processing
А какие настройки генерации были?
источник

AS

Artem Sergeev in Natural Language Processing
temperature = 0.9, top_k = 0, top_p = 0.95, дефолтные.

Так она генерит очень разнообразно, но не всегда удачно и всегда неповторимо.
Я всё никак не доберусь развернуть её нормально, и запускать с менее "творческими" настройками. У меня только недавно стал пример запускаться, и я каждый раз забываю, какие версии чего, и что надо исправить для запуска.

Но я подозреваю что у онлайн демо ровно такие же настройки.
источник

AS

Artem Sergeev in Natural Language Processing
источник

AW

Alex Wortega in Natural Language Processing
Коллеги работающие с диалоговыми моделями на гпт, как вы боретесь с "повторяемостью самой себя" в диалоге?
источник

AS

Artem Sergeev in Natural Language Processing
Дословно не помню, но что вроде no_repeat_ngram_size=4
Ну и по вкусу repetition_penalty =0.8 или 1.8
источник

AS

Artem Sergeev in Natural Language Processing
А вообще если "отпустить  вожжи" типа temperature>0.9 и/или sampling=true, там вообще не до повторений, такая бездна смыслов отверзается :)
источник

AS

Artem Sergeev in Natural Language Processing
Моё любимое:

Напиши короткую объяснительную от имени алкоголика, Иван Ивановича, по месту его работы о том, почему он прогулял работу.

Обычно объяснительные выглядят так:
Объяснительная.
Я, такой-то такой-то, вчера, такого-то числа не смог выйти на работу, по такой-то причине. Число, подпись.

Пиши ниже:
Объяснительная.

Я пьяница.
Пьяница – это диагноз.
Вчера, такого – то числа, будучи сильно пьяным, я сел за руль своей автомашины марки "БМВ", государственный номер такой- то, и поехал по городу в нетрезвом состоянии, совершая опасные обгоны, врезался в столб и разбил стекло передней правой двери, в результате чего я получил телесные повреждения средней тяжести и был госпитализирован, где врачи сделали мне операцию.
Налицо мое психическое расстройство, вызванное употреблением алкогольных напитков.
Моему лечащему врачу я объяснительную писать отказался наотрез, так как считаю его сволочью и хочу, чтобы его уволили к такой-той матери.
Моя жена считает, что я ее бросил. С сегодняшнего дня я бросил курить.
Завтра я со своей женой уеду отдыхать на Кипр.
Большое спасибо за понимание, Иван Иванович.
источник

AS

Artem Sergeev in Natural Language Processing
Всем доброй ночи
источник
2021 August 28

D

Dmitry in Natural Language Processing
😅🤣🤣
источник

AF

Alexander Fedorenko in Natural Language Processing
а вот эту разработку вы смотрели https://docs.ampligraph.org/en/1.2.0/index.html?
источник

AS

Artem Sergeev in Natural Language Processing
Не видел, выглядит интересно, изучу, спасибо!
источник

AF

Alexander Fedorenko in Natural Language Processing
в следующий раз, вы подскажите
успехов)
источник

AS

Artem Sergeev in Natural Language Processing
Само собой :)
источник

ТС

Томатный Сок... in Natural Language Processing
Всем привет
Есть ли какая-нибудь модель, или что-то вроде того, которая разбивает русский текст на абзацы, если они не расставлены?
источник