Возможно, но я сюда заглянула, чтобы обсуждать и спорить, обмениваться аргументами, а не молча соглашаться с мнениями кого-то более авторитетного. Пока что вы выразили мнение. Объясните, почему. Я подразумеваю под интерпретируемостью ML моделей возможность объяснить до коэффициента их вывод. В каком контексте вы используете термин symbol grounding?
потому что проблема интерпретируемости состоит в поиске общей семантики для задающего задачу и решающей её метамодели. задача сообщения семантики нейросети до сих пор является открытой - мы не научились учить сеть нашему языку и нашим формальным рассуждениям (и в этом смысле любая логика, в том числе и категориальная, оказывается бесполезной); в обратную сторону ситуация выглядит лучше - использование NTM с глубокой LSTM в качестве контроллера позволило ребятам из DeepMind реверс-инженирить решение mini-SHRDLU