самих слов, это языковые модели. если всуе поминать тот же цитированный ЛФТ, мир и язык в отношении как пластинка и музыка. простите за празднуют философию.
вобщем мысль что язык хоть и гибок, он все же имеет схожую с миром фактов структуру. иначе мы бы не понимали друг друга
Было лет 15 назад очень популярное направление - semantic web - попытка создать аналог web, но содержащий знания человечества не в виде текстов, а в виде формальных описаний, к которым можно применять алгоритмы логического вывода. Посмотрите на онтологии типа Sumo, DBPedia, - похоже, это ближе всего к тому, что вы хотите. https://www.ontologyportal.org/
GPT, как следует из названия, это генерация текста. На основе других текстов. Ждать от нее осмысленности трудно. Если дообучите на своих примерах - будет правдоподобнее
Для мозгов рисуют хитмапы - какие области активируются, когда человек видит то или иное слово / концепт. Для трансформеров тоже рисуют хитмапы - какие веса у аттеншена, когда кодируется то или иное слово. Почему вы считаете, что трансформеры лучше интерпретируются?
Больше чем в wikidata структурированных знаний нигде нет. И wikidata в последнее время обновляется автоматически обнаруженными фактами, так что можно встретить бред. Вот например факты про руку: https://m.wikidata.org/wiki/Q43471
Мозг это n_мерная структура и мы довольно примерно понимаем как он работает. Самое близкое - делать рентген процессора и смотреть как и когда активируются разные блоки/транзисторы
Как математически работают Трансформеры мы, конечно, знаем хорошо, но вот чему они в итоге выучились (какие знания о мире, какие знания о языке) - боюсь, тоже очень примерно.