Size: a a a

Natural Language Processing

2021 June 30

S

S.o.l. in Natural Language Processing
Я пробовала gpt от Сбера, но она часто несёт чушь
источник

A

Andrey in Natural Language Processing
самих слов, это языковые модели. если всуе поминать тот же цитированный ЛФТ, мир и язык в отношении как пластинка и музыка. простите за празднуют философию.

вобщем мысль что язык хоть и гибок, он все же имеет схожую с миром фактов структуру. иначе мы бы не понимали друг друга
источник

EE

E E in Natural Language Processing
Было лет 15 назад очень популярное направление - semantic web - попытка создать аналог web, но содержащий знания человечества не в виде текстов, а в виде формальных описаний, к которым можно применять алгоритмы логического вывода. Посмотрите на онтологии типа  Sumo, DBPedia,  - похоже, это ближе всего к тому, что вы хотите.
https://www.ontologyportal.org/
источник

IK

Ilya Kalinin in Natural Language Processing
GPT, как следует из названия, это генерация текста. На основе других текстов. Ждать от нее осмысленности трудно. Если дообучите на своих примерах - будет правдоподобнее
источник

S

S.o.l. in Natural Language Processing
Да, я уже обратила внимание на Sumo, из списка, что посоветовали. Кажется это похоже на то что мне нужно, спасибо
источник

S

S.o.l. in Natural Language Processing
Мне кажется, нейросетевые модели языка это черный ящик, который трудно контролировать, и неизвестно, что он выдаст и как на это влиять
источник

A

Andrey in Natural Language Processing
трансформеры еще более-менее интерпретируются, в отличие от мозга.

вобщем вы примите пожалуйста во внимание ограниченность фактологических подходов. уже как минимум пара провалилась
источник

S

S.o.l. in Natural Language Processing
Хорошо, я понимаю что это считается тупиковым вариантом
источник

S

S.o.l. in Natural Language Processing
Просто хотелось поэкспериментировать
источник

IK

Ilya Kalinin in Natural Language Processing
Вот тут, п.1.7 некоторое описание доступных есть: http://www.ict.nsc.ru/jspui/bitstream/ICT/1647/1/68352e2-st08.pdf
источник

EE

E E in Natural Language Processing
Для мозгов рисуют хитмапы - какие области активируются, когда человек видит то или иное слово / концепт. Для трансформеров тоже рисуют хитмапы - какие веса у аттеншена, когда кодируется то или иное слово. Почему вы считаете, что трансформеры лучше интерпретируются?
источник

A

Andrey in Natural Language Processing
как ни странно, с графовыми сетками может что-то получиться, если их как-то пожениться с эмбеддингами.

но это гипотеза.
источник

S

S.o.l. in Natural Language Processing
Хорошая гипотеза
источник

A

Andrey in Natural Language Processing
да, я именно про хитмапы. про мозг меньше знаю - но думаю там области пересекаются куда сильнее
источник

AO

Alex Orgish in Natural Language Processing
Больше чем в wikidata структурированных знаний нигде нет. И wikidata в последнее время обновляется автоматически обнаруженными фактами, так что можно встретить бред. Вот например факты про руку:
https://m.wikidata.org/wiki/Q43471
источник

AW

Alex Wortega in Natural Language Processing
Мозг это n_мерная структура и мы довольно примерно понимаем как он работает. Самое близкое - делать рентген процессора и смотреть как и когда активируются разные блоки/транзисторы
источник

S

S.o.l. in Natural Language Processing
Спасибо, интересный документ
источник

S

S.o.l. in Natural Language Processing
Надо будет поискать дампы wikidata за то время пока не было автообновлений
источник

S

S.o.l. in Natural Language Processing
Всем большое спасибо, что откликнулись на мой вопрос
источник

EE

E E in Natural Language Processing
Как математически работают Трансформеры мы, конечно, знаем хорошо, но вот чему они в итоге выучились (какие знания о мире, какие знания о языке) - боюсь, тоже очень примерно.
источник