День третий. Байесовские методы оценивания DSGE-моделей.
Утро было посвящено так называемой системе «состояние – наблюдение». В такой форме можно записать очень многие модели: первая группа уравнений описывает, как изменяется состояние системы, а вторая – как с этим состоянием связаны наблюдаемые нами данные. В системе уравнений матрицы коэффициентов являются функциями «глубоких параметров» модели, для которых есть содержательная интерпретация. В системах «состояние-наблюдение» легко анализировать данные различной частотности (например, месячные и квартальные), можно учитывать различные измерения для одного и того же показателя. Система оценивается с помощью фильтра Калмана, о котором я как-нибудь напишу отдельно.
Во второй половине изучали байесовское оценивание. В отличие от фриквентистов байесианцы предлагают считать параметры модели случайными (имея при этом в виду наше субъективное мнение о параметрах), а данные – фиксированными. Вы начинаете с того, что предполагаете некоторое априорное распределение для параметров модели, а затем переоцениваете его по формуле Байеса, получая апостериорное распределение. Можно думать о байесовских оценках как об оценках максимального правдоподобия со штрафом, где штрафом выступает плотность априорного распределения. Обычный ММП, без штрафа, может загнать вас в ловушку: вы получите очень высокое значение для параметра, который крайне маловероятен априори, а значит, вы вряд ли кого-то убедите. В dynare предполагается, что распределения всех параметров независимы друг от друга, хотя это не обязательно так.
Основная проблема байесовского подхода – необходимость численного интегрирования, так как в формуле Байеса, из которой получаются апостериорные оценки, стоят интегралы. Здесь помогает алгоритм MCMC, который генерирует выборку, имеющую такую же распределение, как и функция, которую мы интегрируем в формуле Байеса. Метод крайне устойчив к тому, каким именно является истинное распределение, но крайне затратен с точки зрения компьютерных мощностей, особенно для больших моделей. Альтернатива состоит в том, чтобы приблизить апостериорное распределение вблизи его моды нормальным распределением – это называется аппроксимацией Лапласа. Предлагается проводить такую аппроксимацию на начальной стадии работы, когда важно быстро переоценивать модель по мере её изменения. На финальных стадиях можно использовать полноценное байесовское оценивание с помощью MCMC. И MCMC, и аппроксимацию Лапласа мы попробовали построить на практическом занятии в матлабе.
Рассчитанные функции правдоподобия предлагают интересную возможность сравнивать модели с помощью соотношения правдоподобий. Этот подход, однако, не лишен недостатков. Модели часто строятся на разных данных и с различными наборами параметров. Последнюю проблему можно решить, записав общую модель, в которой конкурирующие модели входят как частные случаи (а дальше проверять «равенство нулю коэффициентов»), а вот первую проблему решить намного труднее, но Кристиано утверждает, что в его статье 2016 г. в Econometrica ему это удалось.
Слайды сегодняшней лекции лежат здесь:
http://faculty.wcas.northwestern.edu/~lchrist/course/Armenia_2017/estimation_handout.pdf