Шрифт:
где п — количество наблюдений;
еt — отклонение (остатки) прогноза от фактического курса доллара;
еt– 1 — отклонение (остатки) прогноза от фактического курса доллара с лагом в один месяц.
В нашем случае критерий Дарбина — Уотсона имеет следующее значение:
Правда, критерий Дарбина — Уотсона нельзя использовать для тестирования уравнений авторегресии на наличие автокорреляции в остатках, поскольку в этом случае он теряет свою мощность. Это объясняется тем, что применение критерия Дарбина — Уотсона предполагает строгое соблюдение предпосылки о разделении переменных на зависимую (результативную) и независимую (факторную) переменную. В уравнениях авторегрессии, как известно, в правой части уравнения имеются лаговые значения результативной переменной, а следовательно, указанная предпосылка не соблюдается. В этом случае фактическое значение критерия Дарбина — Уотсона приблизительно равно 2 как при наличии, так и при отсутствии автокорреляции в остатках. Тем не менее в обычных уравнениях регрессии этот критерий весьма полезен для тестирования остатков на наличие автокорреляции.
3. Следующий параметр уравнения регрессии, на наш взгляд, не представляет каких-либо трудностей для его понимания — MEAN DEPENDENT VAR (СРЕДНЕЕ ЗНАЧЕНИЕ ЗАВИСИМОЙ ПЕРЕМЕННОЙ). При этом среднее значение зависимой переменной рассчитывается по довольно простой формуле
где п — количество наблюдений;
Yt — зависимая переменная, ежемесячный курс доллара.
В нашем случае среднее значение (вернее сказать, среднее хронологическое, поскольку мы берем период за 213 месяцев) зависимой переменной будет равно
4. Еще один показатель, характеризующий зависимую переменную данного уравнения регрессии — S.D. DEPENDENT VAR (СТАНДАРТНОЕ ОТКЛОНЕНИЕ ЗАВИСИМОЙ ПЕРЕМЕННОЙ). При этом стандартное отклонение зависимой переменной находится следующим образом:
В нашем случае стандартное отклонение зависимой переменной вычисляется достаточно легко:
5. Важными параметрами уравнения регрессии являются два информационных критерия — AKAIKE INFO CRITERION (ИНФОРМАЦИОННЫЙ КРИТЕРИЙ АКАИКА) и SCHWARZ CRITERION (КРИТЕРИЙ ШВАРЦА). Оба этих информационных критерия можно использовать в качестве критериев для определения в уравнении регрессии оптимальной длины лага. При этом они основаны на принципе снижения остаточной суммы квадратов при добавлении значимого фактора. Так, информационный критерий Акаика находится по следующей формуле:
AIC = -2LL: T + 2k: T, (3/20)
где LL — логарифм максимального правдоподобия;
T — количество наблюдений;
k — общее количество лагов в уравнении авторегрессии.
В нашем случае информационный критерий Акаика равен
AIC = -2x256,1815: 213 x 2 x 3: 213 =2,4336.
В свою очередь информационный критерий Шварца рассчитывается по формуле
SC = -2LL: T + (klnT):T. (3.21)
Относительно нашего уравнения регрессии информационный критерий Шварца имеет следующее значение:
SC = -2 x 256,1815: 213 + (3ln213):213 =2,4809.
Обычно оцениваемая статистическая модель лучше соответствует фактическим данным при более высоком порядке р и q в модели ARMA(/? q). Платой за это кажущееся повышение точности является вполне очевидная потеря в простоте статистической модели и в экономии включенных в него параметров, поэтому для достижения компромисса между точностью уравнения регрессии и экономией его параметров пользуются информационными критериями Акаика и Шварца.
При выборе из двух уравнений регрессии обычно предпочтение отдается той статистической модели, у которой меньше значения этих информационных критериев. Следует также заметить, что информационный критерий Шварца по сравнению с критерием Акаика позволяет отбирать уравнения регрессии с более экономичными параметрами.
Как мы уже говорили, в уравнениях авторегрессии при тестировании остатков на наличие автокорреляции критерий Дарбина — Уотсона теряет свою мощность, и в этих случаях приходится пользоваться иными критериями. Например, тем, кто работает в Excel, с этой целью проще воспользоваться критерием h Дарбина, или, как его еще называют, h– статистикой Дарбина. Его расчет выполняется по следующей формуле:
где D — критерий Дарбина — Уотсона;
п — количество наблюдений;
V — квадрат стандартной ошибки при лаговой факторной переменной Yt_1.
Например, в нашем случае критерий h Дарбина имеет следующую величину:
При увеличении объема выборки распределение h– статистики стремится к нормальному с нулевым математическим ожиданием и дисперсией, равной 1. Поэтому гипотеза об отсутствии автокорреляции в остатках отвергается, если фактическое значение h– статистики оказывается больше, чем критическое значение нормального распределения. Для проверки по критерию h Дарбина гипотезы о наличии автокорреляции в остатках проще воспользоваться следующим правилом.
1. Если h > 1,96, то нулевая гипотеза об отсутствии положительной автокорреляции в остатках отклоняется.
2. Если h < -1,96, то нулевая гипотеза об отсутствии отрицательной автокорреляции в остатках отклоняется.
3. Если -1,96 < h < 1,96, то нет основания отклонять нулевую гипотезу об отсутствии автокорреляции в остатках.
Поскольку критерий h Дарбина получился равным-1,00368, то у нас нет основания отклонять нулевую гипотезу об отсутствии автокорреляции в остатках.