2.1. Основні поняття про лінійні параметричні моделі часових рядів і властивості їхньої загальної моделі
Стаціонарні часові ряди можна представити широким класом лінійних параметричних моделей, грунтованих на припущеннях стосовно того, що процес залишається в рівновазі щодо постійного середнього рівня. Найпоширенішими є моделі авторегресії (), ковзної середньої () та змішані (). Царина застосування цих моделей не обмежується стаціонарними процесами. Так, ряди зі специфічною однорідною нестаціонарністю можна звести до стаціонарних і описувати модифікованою формою моделі , відомої як модель Бокса-Дженкінса.
Лінійні параметричні моделі дістали загальну назву авторегресійні інтегровані моделі ковзної середньої (ARIMA). Вони грунтуються на припущенні лінійності процесу породження даних і описують стаціонарний процес, який має три ознаки: p – порядок авторегресії, d – необхідний порядок інтегрування, тобто кількість разів взяття різниць для зведення початкового часового ряду до стаціонарного, q – порядок ковзної середньої в моделі.
Поєднання різних моделей аналізу часових рядів у межах однієї дає змогу працювати з моделями невисоких порядків, що суттєво розширює сферу практичного застосування їх. Окрім того, з’являється можливість розробляти модель за допомогою однакових статистичних характеристик – автокореляційних і часткових автокореляційних функцій, розробляти спільний алгоритм для обчислення параметрів моделі, однаковим чином будувати прогноз на підставі побудованої моделі тощо.
Загальна лінійна модель стаціонарного ряду. Будь-які різновиди -моделей є окремим випадком загальної лінійної моделі часового ряду, яка є базовою для теоретичних досліджень стаціонарних процесів. В основі її визначення лежить поняття “білого шуму”.
Будемо вважати, що середнє значення стаціонарного ряду == 0, якщо це не так, то потрібно перейти до . Тоді
загальна лінійна модель це стаціонарний процес у вигляді лінійної комбінації білого шуму з різними ваговими коефіцієнтами:
, (2.1.1)
де − білий шум із обмеженими математичним сподіванням та дисперсією.
Вираз (2.1.1) ще називають розкладенням Вольда або лінійним фільтром (див. 1.2.13).
Із визначення стаціонарності процесу (2.1.1) виходить, що його дисперсія − скінченне число, яке дорівнює
, (2.1.2)
і ряд має межу. Оскільки підсумовуються випадкові величини, використовують навіть сильніше припущення: для ряду має виконуватися умова збіжності за імовірністю, тобто , і передбачається, що =1. Чим більший ваговий коефіцієнт , тим більший вплив випадкового збурення в момент на поточний момент t.
Автоковаріація стаціонарного процесу також має скінченне значення, яке дорівнює:
, (2.1.3)
Із моделі (2.1.1) випливають і такі властивості:
, , , . (2.1.4)
Найважливішою є перша властивість, яка означає, що рівні часового ряду не корелюють із майбутніми збуреннями .
Для вивчення властивостей часових рядів зручно використовувати оператор зсуву (лаговий оператор). Дія оператора зсуву дає значення часового ряду у попередні моменти часу. Наприклад . Послідовне застосування оператора зсуву разів дає значення часового ряду в момент часу на періодів раніше: . Іноді зручно використовувати нульову ступінь оператора зсуву: , яка виконує роль нульового оператора.
Якщо ввести оператор зсуву у рівняння (2.1.1) матимемо інший вигляд його запису:
, (2.1.5)
де лінійний оператор або операторний поліном. Коефіцієнт біля завжди дорівнює 1.
У теорії загальної лінійної моделі важливим є знаходження оберненого значення для виразу операторного полінома .
Зазначимо, що для двох операторних поліномів та можливе виконання арифметичних операцій додавання, віднімання і множення на число. Результат послідовного впливу на оператора , а потім на одержаний результат – ще й оператора , призводить до того самого результату, що й застосування до процесу добутку поліномів і : .
Для операторного багаточлена , що діє на процес , визначають обернений оператор так, щоб їхній добуток дорівнював одиничному оператору (на кшталт добутку прямої та оберненої матриць, який дорівнює одиничній матриці). Якщо , то вплив на оберненого оператора дає : . Наприклад для поліному першого порядку його добуток на обернений оператор дає одиничний оператор. Зазначимо, що , якщо необмежений ряд в дужках існує, має сенс. Отже оберненою величиною для найпростішого лагового полінома першого порядку є поліном вигляду: , якщо права частина має сенс. Для обмеженої суми замість необмеженого ряду маємо: . Дія цього оператора на випадковий процес дає: . Для права частина виразу прагне до (за умов обмеження значень спостережень за випадковим процесом та ). Отже умова існування оберненого оператора для полінома першого порядку виглядає, як .
Для загальної лінійної моделі (2.1.5) може бути знайдена обернена модель. Існування оберненого оператора до операторного полінома випливає із умови
, при , (2.1.6)
де замість допускається підставлення комплексних чисел.
Обернений оператор до операторного полінома має вигляд
, де . (2.1.7)
Прямий та обернений оператори задовольняють умові:
. (2.1.8)
Рівняння (2.1.8) визначає коефіцієнти . Щоб побачити це, розпишемо його за допомогою оператора зсуву:
=1, або
Оскільки , то
звідки , тощо. (2.1.9)
Для , де .
Для процесу , за умови його оберненості, маємо можливість відтворити за значеннями :
, (2.1.10)
тобто значення збурення , своєю чергою, є лінійною комбінацією поточного й минулих значень . Співвідношення (2.1.10) можна переписати у вигляді
(2.1.11)
звідки випливає, що для загальної лінійної моделі, яка може бути перетворена на обернену, поточне значення процесу є лінійною комбінацією всіх його минулих значень плюс випадкове збурення , яке не корелює з цими значеннями за . Така форма загальної лінійної моделі є зручною для прогнозування майбутніх значень часового ряду, якщо відомі всі його минулі значення. Прогноз, що робиться в момент із упередженням , відповідає умовному математичному сподіванню (2.1.11), тобто , і має мінімальну середньоквадратичну похибку. Складову у (2.1.11) можна тлумачити як оптимальну лінійну незалежну функцію прогнозування (предиктор) для за всіма минулими значеннями часового ряду , а доданок − як її випадкову похибку. Зокрема, знайдена з (2.1.11) оцінка рівня ряду є прогнозом в момент на один крок уперед. Похибка прогнозу на один крок уперед дорівнює , тобто збурення , що генерують процес (2.1.1), стають похибками прогнозу на один крок уперед.
Підсумовуючи огляд загальної лінійної моделі, зазначимо, що лінійний процес (2.1.1) є стаціонарним, якщо ряд сходиться за умови , та може бути оберненим, якщо у цій самій області сходиться ряд . Модель визначається нескінченною кількістю параметрів , тому на практиці використовуються різноманітні окремі випадки цієї моделі із обмеженою кількістю параметрів ( та -моделі), які розглянуті нижче.
2.2. Процеси ковзної середньої (-процеси)
Стохастичний процес називають процесом ковзної середньої порядку , якщо до загальної моделі (2.1.1) входять лише складових. Позначимо коефіцієнти обмеженого ряду MA() літерою b, тоді модель ковзної середньої порядку має вигляд:
==, (2.2.1)
де випадкова величина − білий шум, − лінійний оператор, та () невідомих параметрів треба оцінити на підставі вибіркових спостережень.
Процес (2.2.1) − стаціонарний, оскільки є окремим випадком загальної лінійної моделі, а саме, включно до j= дорівнюють , решта дорівнюють нулю. Назва “ковзна середня” пояснюється тим, що поточне значення випадкового процесу визначається зваженим середнім попередніх значень білого шуму.
Операторний багаточлен можна розкласти на множники, використовуючи корені рівняння . За основною теоремою алгебри будь-який поліном ступеня із дійсними коефіцієнтами має комплексних коренів, серед яких можуть траплятися однакові за величиною. Отже, лінійний оператор можна записати у вигляді:
,
де – корені рівняння .
-процес, відповідно, має вигляд:
.
Для використання умови оберненості лінійного оператора, знайдемо корені іншого характеристичного рівняння, а саме: . Позначимо їх . Такий запис характеристичного рівняння збігається із прийнятим в теорії різницевих лінійних рівнянь зі сталими коефіцієнтами. Відмінність полягає у тому, що зазвичай різницеві рівняння містять поточний й наступні члени послідовності, а у часових рядах використовують поточний і попередні члени. Тому є два способи запису характеристичного рівняння. Перший, − відповідає загальному правилу для різницевих рівнянь. Другий, – відповідає часовим рядам. Корені цих рівнянь пов’язані між собою співвідношенням , і навпаки. Використовуючи результат теореми Вієтта: добуток коренів характеристичного рівняння дорівнює , одержимо:
.
Якщо виразити через , не зважаючи на те, що – це оператор, одержимо . І, якщо усі корені характеристичного рівняння дійсні і відмінні за величиною, операторний дріб, знаменник якого розкладений на добуток одночленів першого ступеня стосовно , можна записати у вигляді суми простих дробів виду: . Таке розкладення застосовується під час інтегрування дробів і відоме з курсу математичного аналізу. Кожна складова має вираз формули нескінченно згасаючої геометричної прогресії. У цьому випадку відіграє роль першого члена цієї прогресії, а замість множника нескінченно згасаючої геометричної прогресії знаходиться . Якщо , то перший простий дріб можна розкласти в суму нескінченно згасаючої геометричної прогресії або у необмежений степеневий ряд . Якщо така умова виконується для кожного кореня, то дорівнює сумі таких необмежених розкладень. Після приведення подібних членів можна одержати нескінченний багаточлен з певними коефіцієнтами. Перетворений процес ковзної середньої має вигляд: , де коефіцієнти знаходять через характеристичні корені . Якщо всі умови виконуються, то можна виразити через поточне й минулі значення . Зроблені перетворення мають сенс лише тоді, коли кожний дріб виду можна тлумачити як суму нескінченно згасаючої геометричної прогресії, тобто всі корені за модулем не перевищують одиниці: .
Якщо виразити через всі його минулі значення та і поділити на , маємо еквівалентне представлення . Тут процес MA() записаний так, що поточне значення виражається через поточне значення , а замість минулих значень з’являється нескінченний ряд минулих значень . За побудовою цей процес є авторегресійним стаціонарним випадковим процесом.
Умову оберненості для MA() процесів можна виразити через корені характеристичного рівняння : . Вона залишається незмінною й для випадку комплексних та/або кратних коренів. Ці корені зображують у вигляді точок комплексної площини. Комплексні числа, які за модулем дорівнюють одиниці, утворюють на цій площині коло одиничного радіусу. Тому умова існування оберненого оператора формулюється так: корені характеристичного поліному перебувають у межах кола одиничного радіусу. Тут і далі буде використовуватися саме ця умова оберненості MA()-процесів.
Альтернативним є твердження, що корені багаточлена мають перебувати поза колом одиничного радіусу. Отже, поліном також є характеристичним для процесу ковзної середньої порядку . Корені характеристичних рівнянь, заданих різним способом, пов’язані між собою співвідношенням .
За умови оберненості кожен скінченний MA()-процес може бути представлений у вигляді нескінченного авторегресійного процесу:
. (2.2.2)
Розглянемо сформульовані вище твердження детальніше.
Автоковаріація та дисперсія MA() процесу відповідно дорівнюють:
. (2.2.3)
.
Нагадаємо, що завдяки парності функції досить її визначити для .
Автокореляційна функція (АКФ) процесу має вигляд
, та для . (2.2.4)
Автокореляційну функцію використовують для визначення порядку (кількості лагових змінних) MA()-процесу, оскільки коефіцієнти автокореляції порядку, більшого за , дорівнюють нулю.
Практичного застосування набули переважно процеси ковзної середньої першого () та другого () порядків. Розглянемо приклади.
Приклад 2.2.1. Модель ковзної середньої першого порядку, або MA(1):
. (2.2.5)
Межі для можливого значення можна визначити, якщо записати (2.2.5) у вигляді . Виражаючи величину через , отримуємо
. (2.2.6) Щоб величина була обмеженою при збільшенні , ряд у правій частині має сходитися, а це можливо лише за умови. Ця умова також означає існування для MA(1)-моделі оберненого оператора у вигляді авторегресійного зображення нескінченного порядку AR(∞). Якщо , то не є стаціонарним процесом.
Дисперсія задається формулою
. (2.2.7)
Автоковаріація першого порядку дорівнює:
. (2.2.8)
Автоковаріація другого порядку дорівнює:
, (2.2.9)
оскільки містить тільки добутки , . У загальному випадку для .
АКФ дорівнює
та для (2.2.10)
звідки можна обчислити шляхом розв’язку квадратного рівняння
(2.2.11)
Оскільки із двох значень , що задовольняють рівнянню (2.2.11), одне завжди більше за одиницю (за теоремою Вієта добуток коренів дорівнює одиниці), то умові оберненості завжди задовольняє лише один корінь.
Іншою характеристикою часового ряду є часткова автокореляційна функція (ЧАКФ). Сутність коефіцієнтів часткової автокореляції (КЧА) доцільно пояснити на прикладі регресії
, (2.2.12)
де перша цифра індексу за відображає лаг змінної, а друга цифра позначає максимальний порядок регресії (2 у цьому разі). Тут коефіцієнт за є КЧА другого порядку, оскільки він відображає частковий, або додатковий ефект від додавання до рівняння, в якому є . КЧА першого порядку, , визначається зі співвідношення
. (2.2.13)
Очевидно, що у (2.2.13) . У загальному випадку КЧА порядку є коефіцієнтом у рівнянні
. (2.2.14)
Якщо є білим шумом, то всі коефіцієнти у (2.2.14) дорівнюватимуть нулю, даючи нульові значення всіх КЧА.
Для моделі MA(1) КЧА першого та другого порядків можна знайти з коефіцієнтів автокореляції:
, . (2.2.15)
Так само можна знайти КЧА вищих порядків. У результаті маємо, що для MA(1) процесу АКФ порядків вище першого дорівнюють нулю, тоді як ЧАКФ складніша і спадає приблизно як геометрична прогресія. Якщо і, відповідно, , то часткова автокореляційна функція коливається зі зміною знака. За та всі значення ЧАКФ від’ємні.
Приклад 2.2.2. Модель ковзної середньої другого порядку або MA(2) має вигляд:
. (2.2.16)
Подібно до попереднього для автоковаріацій маємо
. (2.2.17)
. (2.2.18)
. (2.2.19)
для .
Автокореляції дорівнюють:
, (2.2.20)
, (2.2.21)
та для .
ЧАК знаходять підставленням коефіцієнтів автокореляції у такі рівняння:
, . (2.2.22)
Отже, MA(2) процес характеризується нульовими значеннями АКФ порядку більшого ніж два, і досить складною ЧАКФ, яка має спадну тенденцію.
2.3. Авторегресійні процеси (-процеси)
Модель авторегресії описує стаціонарний процес, де значення показника є лінійною комбінацією обмеженої кількості своїх попередніх значень і випадкової складової. Наприклад, процес можна відобразити таким чином:
, (2.3.1)
де випадкова складова − білий шум. Модель містить () невідомі параметри: − дисперсію випадкової складової та коефіцієнтів моделі.
У цих термінах процес, обернений до , може бути позначений як . Якщо припустити, що обернена форма загальної лінійної моделі (2.1.10) містить обмежену кількість складових, тобто за , рівняння (2.1.10) після перепозначення його коефіцієнтів матиме вигляд (2.3.1), або
, (2.3.2)
де − поліном від оператора зсуву . Тепер оператор ний поліном діє на а не на і результат дорівнює . Тим самим маємо “дзеркальне відображення” процесу .
Як відомо, процес завжди стаціонарний. Однак немає жодної гарантії, що –процес за будь-якими значеннями коефіцієнтів буде стаціонарним. Для того, щоб він був стаціонарним, необхідно, щоб його можна було зобразити у вигляді розкладення Вольда, або перевести у зображення, яке має сенс.
Вираз (2.3.2) можна розглядати як різницеве рівняння відносно із випадковою правою частиною . Загальний розв’язок цього рівняння складається із загального розв’язку однорідного рівняння (коли немає ) плюс частковий розв’язок повного (неоднорідного) рівняння, який залежить від . Загальний розв’язок однорідного рівняння має такий вигляд: , де − різні за величиною корені характеристичного рівняння, яке має вигляд: , а − поліноми, ступінь яких на одиницю менша за кратність відповідного кореня. Розв’язок однорідного рівняння буде скінченним за умови, що корені характеристичного рівняння за модулем не перевищуватимуть 1: . Саме за цією умовою існує оператор, обернений до оператора , тобто має сенс вираз: . Отже, процес приймає вигляд розкладення Вольда: , з чого випливає, що цей ряд є стаціонарним. Якщо за деяким j , то розв’язок не прагне до нуля (або прямує до нескінченності), і про стаціонарність навіть не йдеться.
Необхідною й достатньою умовою стаціонарності процесу (2.3.1) є те, що всі корені характеристичного рівняння для процесу перебувають у межах кола одиничного радіусу.
Процеси та мають певну схожість. Але процес завжди стаціонарний, і умова оберненості лише забезпечує йому певну корисну властивість. Для ця умова дуже жорстка: або процес стаціонарний і зводиться до , або він не стаціонарний.
Умова, що всі корені рівняння за модулем не перевищують одиницю, еквівалентна тій, що граничні значення та прагнуть до нуля за необмеженого зростання .
Дослідження коренів характеристичного рівняння можна також здійснити за допомогою аналіза автокореляційної функції. Свідоцтвом того, що це рівняння містить корінь, близький до одиниці, є поступове згасання АКФ.
Для одержання співвідношень для основних характеристик моделі помножимо ліву та праву частини (2.3.1) на :
і взявши математичне сподівання, одержимо рекурентне співвідношення для автоковаріацій (нагадаємо, що , за та ):
(2.3.3)
Поділивши всі складові (2.3.3) на , побачимо, що автокореляції задовольняють аналогічному співвідношенню:
або , , (2.3.4)
а дисперсія процесу має вигляд:
.
Зазначимо, що рівняння для подібне до рівняння, якому задовольняє сам процес . Із цих рівнянь виходить, що всі автокореляції у моделі визначаються першими автокореляціями ; також ними визначаються параметри . Щоб виразити через , візьмемо рівняння (2.3.4) для і, враховуючи, що (кореляція часового ряду із самим собою) та для будь-якого , побудуємо лінійну систему для обчислення коефіцієнтів моделі:
або в матричній формі , (2.3.5)
де R – невироджена автокореляційна матриця часового ряду
, , .
Отриману систему рівнянь називають системою Юла-Вокера. З неї визначають параметри –моделі:
. (2.3.6)
Практичного використання набули –процеси першого та другого порядків. Розглянемо приклади цього.
Приклад 2.3.1. Модель авторегресії першого порядку AR(1) описує марківський процес:
, .
Зробимо підстановку . Тоді
=.
Тепер залежить вже не від попереднього значення , а від значення . Якщо виразити як AR(1)-процес, то вже буде залежати від . Повторивши процедуру підстановки j разів, отримаємо
=…=.
Отже, будь-який AR(1)-процес можна записати як функцію від коефіцієнта . Розглянемо три випадки:
1) . Це означає, що при зростанні j значення також буде постійно зростати, і дуже впливовими на процес будуть значення похибок, які відбулися багато періодів назад. Таке припущення не відповідає дійсності. Процес за умови є нестабільним і нестаціонарним;
2) . Таке припущення відповідає нестаціонарним процесам із сезонними коливаннями;
3) . Це припущення є реалістичним, оскільки найбільша вага при визначенні значень часового ряду надається його останнім елементам. Тому AR(1)-процес далі аналізується саме у такому припущенні.
Якщо число підстановок прямує до нескінченності, то величина прямуватиме до 0. Тоді . Узявши математичне сподівання: , , бачимо, що AR(1)-процес можна виразити через нескінченний -процес:
.
Розглянемо числові характеристики процесу. Середнє значення дорівнює
і є обмеженим, якщо не дорівнює одиниці. Для визначення дисперсії зазначимо, що
.
Тому дисперсія дорівнює
і розв’язавши її відносно , одержимо
.
Щоб дисперсія була додатною необхідне виконання умови
Автоковаріація першого порядку дорівнює:
Автоковаріація другого порядку дорівнює:
та у загальному випадку
для .
Автокореляції знаходять безпосередньо із автоковаріацій, вони дорівнюють
.
Оскільки , автокореляції є геометрично спадними для AR(1)-моделі.
Часткові автокореляції (ЧАК) дорівнюють:
,
0 та у загальному випадку
0 для .
Отже, AR(1)-процес характеризується геометрично спадною АКФ та ЧАКФ, яка для порядків вище першого дорівнює нулю.
Приклад 2.3.2. Модель авторегресії другого порядку AR(2), яку називають процесом Юла, задається рівнянням
.
Знайдемо середнє та дисперсію AR(2)-процесу
.
Автокореляції процесу дорівнюють
,
,
для .
Часткові автокореляції (ЧАК) дорівнюють:
,
,
0,
0 для .
Отже, для AR(2) процесу ЧАКФ дорівнює нулю для порядку більше двох, і характеризується спадною АКФ.
У загальному випадку для -процесів (2.3.1) можна показати, що АКФ геометрично спадає після , та ЧАКФ дорівнюють нулю після . Це дає змогу ідентифікувати можливу AR-модель за наявності інформації про вибіркову АКФ та ЧАКФ для множини спостережень змінної.
Авторегресійні моделі є дуже корисними для опису багатьох часових рядів, що трапляються у практичній діяльності. Вперше вони були побудовані для випадкових систем, які мають інерцію і перебувають під впливом сил, що повертають систему до стану рівноваги. Так, моделі другого порядку () доволі точно описують поведінку приблизно циклічної природи, наприклад маятник. Область застосування AR-моделей не обмежується лише стаціонарними процесами. Користуючись різницевими перетвореннями, можна звести процес, що має тенденцію, до стаціонарного. Окрім того, можна виключити тренд, одержаний за методом найменших квадратів або будь-яким іншим методом.
2.4. Змішані АRМА- та АRІМА-процеси
З метою кращого пристосування моделі до ряду спостережень інколи доцільно об’єднати в одній моделі й авторегресію, й ковзну середню. При цьому модель має бути якомога економною, тобто давати найкращу апроксимацію за допомогою невеликої кількості параметрів. Для досягнення цієї мети застосовують змішані моделі авторегресії – ковзної середньої або -моделі:
, (2.4.1)
або, використовуючи поліноми від оператора зсуву, (2.4.1) можна записати як:
, (2.4.2)
де =, =.
Властивості -моделі є сумішшю властивостей та моделей. Стаціонарність -процесу визначається лише його -частиною. Тому умови такі самі, як й для -процесу. Процес стаціонарний, якщо всі корені характеристичного рівняння -частини (полінома ) за модулем не перевищують одиницю. Так само умова оберненості -процесу повністю визначається умовою оберненості -частини. Якщо -частина має обернену, той й для усього -процесу можна знайти обернене зображення. При цьому, якщо процес стаціонарний, він за теоремою Вольда обов’язково має -зображення нескінченного порядку. Разом із тим, він має й скінченне зображення . Добуток (2.4.2) на дає -зображення нескінченного порядку. Отже, може бути зручним зображенням стаціонарного процесу і, якщо можна звести процес до , то він визначається усього параметрами.
Очевидно, що математичне сподівання стаціонарного -процесу дорівнює нулю. Зазначимо, що введенням в модель (2.4.1) вільного члена можна врахувати ненульове, але стале, математичне сподівання. Тоді математичне сподівання процесу дорівнюватиме .
Приклад 2.4.1. Розглянемо властивості -моделі, яка має вигляд:
,
або в операторному запису: .
Умова стаціонарності має вигляд , умова оберненості − .
Для обчислення дисперсії процесу зручно використати зображення, яке відповідає розкладенню Вольда:
.
Тоді .
Для розрахунку першої автокореляції помножимо на і візьмемо математичне сподівання від обох частин. Одержимо . Помножимо вираз на і візьмемо математичне сподівання від обох частин. Одержимо . Після підставлення одержуємо . Остаточно: .
Якщо помножити на і узяти математичне сподівання, одержимо: та . Для всіх значень з індексом більшим, ніж порядок -частини, одержуємо, що . Такі самі співвідношення виконувалися й для “чистої” моделі і називалися рівняннями Юла-Вокера для автокореляційної функції. Отже, починаючи із другої, автокореляції -моделі поводяться точно так, як автокореляції , але перші автокореляції цих процесів відрізняються.
Часткові автокореляції (ЧАК) дорівнюють:
,
та є в цілому спадними.
Результати прикладу 2.4.1 поширюються також на -модель, звичайно, за умови стаціонарності процесу. Перші значень автокореляційної функції визначаються через коефіцієнти та -частин, а потім значення автокореляційної функції виражаються у вигляді суми складових, що спадають за експонентою.
Для процесу , застосовуючи той самий метод знаходження добутку усіх членів (2.4.1) на і переходу до математичних сподівань, одержуємо різницеве рівняння виду:
, (2.4.3)
де ; при цьому для . Звідси виходить, що для значень автоковаріація та автокореляція задовольняють таким самим співвідношенням, як і в моделі :
, . (2.4.4) Це означає, що для процесу існує автокореляцій , значення яких пов’язані залежністю (2.4.3) з параметрами ковзної середньої та параметрами авторегресії . Далі, значень , необхідні як початкові значення для розв’язання різницевого рівняння (2.4.4), яке визначає автокореляції для великих лагів .
Отже, за АКФ (, ) визначається поліномом та початковими значеннями і складається з сукупності спадних експонент і (або) спадних синусоїд, а за існують початкових значень , , які не вкладаються у цю загальну картину. Ці характеристики важливі під час ідентифікації моделі за спостереженнями над часовим рядом.
Якщо у (2.4.3) припустити, що , маємо дисперсію процесу:
. (2.4.5)
Розв’язуючи це рівняння разом із рівняннями (2.4.3) для , можна отримати .
Царина застосування розглянутих вище параметричних лінійних моделей не обмежується лише стаціонарними процесами. Нагадаємо, що умова стаціонарності моделі (2.4.2) означає, що корені полінома перебувають в середині одиничного кола. Природним шляхом одержання нестаціонарного процесу, що також виглядає як (2.4.2), є послабшання цього обмеження. Зокрема, у багатьох випадках соціально-економічні процеси добре описуються моделями типу (2.4.2), в яких один або кілька коренів дорівнюють одиниці. До таких нестаціонарних процесів можна віднести часові ряди типу TS, DS та тренд-сезонні процеси, які взяттям послідовних різниць можна звести до стаціонарного виду (див. розділ 2.1 частини 2). Наприклад, нестаціонарний ряд випадкового блукання, рівняння якого має вигляд: , після взяття першої різниці перетворюється на стаціонарний ряд: , де . У полінома другого ступеня: , після взяття першої різниці ступінь поліному зменшується на одиницю:
.
Якщо узяти другу послідовну різницю, то одержимо стаціонарний процес: . Отже після того, як двічі до параболічної функції часу застосували послідовні різниці, процес перетворився на стаціонарний виду .
Наведені приклади показують, що є нестаціонарні ряди, які після взяття послідовних різниць зводяться до стаціонарних, а саме до виду . Моделі таких рядів отримали назву процеси авторегресії й інтегрованої ковзної середньої (ARIMA).
Розглянемо модель
, (2.4.6)
де, на відміну від (2.4.2), − нестаціонарний оператор авторегресії порядку , такий, що коренів рівняння дорівнюють одиниці, а решта коренів перебувають в межах одиничного кола; оператор ковзної середньої , як і раніше має вигляд (2.1.1), тобто має порядок і може бути оберненим (усі його корені перебувають в межах одиничного кола). Тоді можна записати, що
, (2.4.7)
де − стаціонарний порядку оператор авторегресії (тобто із коренями в межах одиничного кола). Якщо ввести оператор різниці ; , тоді запишеться як , і модель (2.4.6) можна представити у вигляді:
. (2.4.8)
Тут -ту різницю ряду обчислюють за формулою:
. (2.4.9)
Вона задовольняє рівнянню
, (2.4.10)
тобто вже є стаціонарним оберненим процесом . З іншого боку, якщо ввести обернений до оператор
, (2.4.11)
який називають оператором підсумку (), то з (2.4.9) виходить, що
, (2.4.12) де під -кратною ітерацією оператору S розуміють ряд
. (2.4.13)
Отже, , що описується рівнянням (2.4.8), можна одержати -кратним підсумком процесу , який, згідно із (2.4.10), є . Тому процес, що задається моделлю (2.4.8), називають процесом (додаючи до термін інтегрований ()). Якщо в (2.4.8) оператор авторегресії має порядок , а оператор ковзної середньої має порядок , то скорочено модель (2.4.8) записують як . Зокрема, за виходить змішана модель , за − модель авторегресії , за − модель ковзної середньої . Тим самим модель охоплює широкий клас як стаціонарних (при ), так і нестаціонарних (при ) процесів. На практиці d є додатним цілим, яке не перевищує 2, або нулем, у разі стаціонарності .
2.5. Аналіз часових рядів Бокса-Дженкінса. Практичне використання -моделей пов’язують із появою методики їхньої побудови, розробленої Г.Боксом та Г.Дженкінсом. [30]. Методика передбачає такі послідовні процедури:
- Ідентифікація моделі часового ряду.
- Оцінювання параметрів моделі.
- Діагностика побудованої моделі.
- Використання моделі для прогнозування майбутніх значень часового ряду.
Ці процедури можуть неодноразово повторюватися в процесі уточнення моделі. Розглянемо кожен етап алгоритму детальніше.
Ідентифікація моделі. Під час побудови моделі аналізу часових рядів виникає проблема визначення її із мінімальною кількістю параметрів. Ця проблема має назву ідентифікація.
Визначення порядку -моделі на етапі ідентифікації складається із розв’язання двох відносно незалежних проблем:
1) аналізу стаціонарності процесу і визначення порядку оператора переходу до послідовних різниць: ;
2) вибору параметрів р і q у моделі , яка описує стаціонарний ряд як процес авторегресії та ковзної середньої.
З’ясування стаціонарності часового ряду здійснюють за допомогою методів, розглянутих у розділі 1 частини 2. У разі нестаціонарності ряду для визначення порядку різницевого оператора можна скористатися емпіричним критерієм, сутність якого полягає у тому, що знаходять такі значення d, за якими вираз
(2.5.1)
де − середнє значення стаціонарного процесу , , буде мінімальним. Величина критерію (2.5.1) зі збільшенням значення d зменшуватиметься доти, доки різницевий оператор не стане стаціонарним. Подальше підвищення порядку d різницевого оператора спричинить лише зростання дисперсії, а отже, збільшення її.
Систематичну складову можна також виключити з ряду, оцінивши її за методом найменших квадратів або будь-яким іншим методом згладжування часового ряду (див. розділ 3).
Коли стаціонарний ряд одержано, визначають порядок -моделі. На цьому етапі вельми корисними є графічні методи, а також порівняння автокореляційної та часткової автокореляційної функції із відповідними функціями відомих ARMA-процесів, наведених у табл.2.6.1.
Таблиця 2.6.1
Характеристики -моделей
Модель | АКФ | ЧАКФ |
Білий шум | всі нулі | всі нулі |
МА(1) | нулі після ρ1 | спадна після φ11 |
МА(2) | нулі після ρ2 | спадна після φ22 |
МА(q) | нулі після ρq | спадна після φqq |
AR(1) | геометричнo спадна після ρ1 | нулі після φ11 |
AR(2) | геометричнo спадна після ρ2 | нулі після φ22 |
AR(p) | геометричнo спадна після ρр | нулі після φрр |
(1,1) | геометричнo спадна після ρ1 | спадна після φ11 |
(p, q) | геометричнo спадна після ρр | спадна після φqq |
У загальному випадку, якщо використовують вибірку спостережень розмір якої часто є відносно малим, можна очікувати, що точної відповідності між даними й теоретичною моделлю не буде. Це може призвести до вибору на цьому кроці двох або трьох пробних моделей, які мають кілька пар часових лагів p в авторегресійному процесі та лагових змінних q у моделі ковзної середньої. Вибір із кількох моделей найдоцільнішої для подальшого аналізу й прогнозування здійснюється за допомогою методів діагностичної перевірки, що розглядатимуться далі.
Оцінювання параметрів моделі. Після того, як процес ідентифікації визначив початковий варіант стаціонарної -моделі, цю модель пристосовують до даних спостережень шляхом знаходження оцінок параметрів та . Раніш було показано, що -модель порядку (р,d,q), що враховує нестаціонарні процеси, зводиться за допомогою перших різниць до стаціонарної моделі порядку (р,0,q). Тому процедура обчислення коефіцієнтів розглядається тільки для стаціонарної моделі.
Параметри -моделі можуть бути оцінені за допомогою звичайного методу найменших квадратів (виходять зсунуті, але консистентні оцінки), та його не можна застосувати до або моделей. Наприклад, для -моделі неможливо оцінити параметри користуючись лише спостереженнями , оскільки невідомі значення параметрів для розрахунку .
Метод Бокса-Дженкінса [30] запропонували використовувати процедуру нелінійної оптимізації: процедуру пошуку на мережі (grid-search procedure). Це ітеративна процедура, в якій оцінки параметрів мінімізують суму квадратів залишків. Запишемо -модель як . Аналізуючи оцінки АКФ та ЧАКФ можна зробити попередні припущення відносно значень параметрів. Можна використовувати вибіркове середнє (для μ) та першу автокореляцію (для ). Припустімо, що вони дорівнюють 100 та 0,2. Тоді модель має вигляд . Припускаючи, що дорівнює нулю, можна отримати оцінки для t від 1 до п й розрахувати суму квадратів залишків . Вибір нових початкових значень для μ. та дає нове значення суми квадратів залишків. Потім перевіряються інші початкові дані та остаточними оцінками стають значення коефіцієнтів моделі, за якими є мінімальним.
За часів Бокса і Дженкінса, через значні обмеження на використання комп’ютерів, для оцінювання коефіцієнтів розроблялись окремі методи для кожної моделі. Зараз вчені розробили загальний метод максимальної правдоподібності, який уможливлює отримання консистентних та асимптотично ефективних оцінок коефіцієнтів для будь-якої моделі [29].
Головна ідея застосування методу полягає у припущенні, що дані мають деякий імовірнісний розподіл і обчислюється ймовірність потрібної події. Це назагал залежить від деяких невідомих параметрів. Використовуючи дані, можна максимізувати ймовірність цієї події. Коефіцієнти, за яких досягається максимум імовірності відповідної події, є необхідними оцінками параметрів. Іноді дуже важко знайти ці оцінки в аналітичному вигляді. В такому разі використовують числові методи оптимізації функції правдоподібності.
Будемо виходити зі спостережень (для цього знадобляться спостережень над початковим рядом ). Запишемо -процес у вигляді
. (2.5.2)
Цей процес містить невідомих параметрів: .
Нехай , , , визначимо матрицю таким чином, що . Нехай також мають нормальний розподіл. Тоді логарифм функції правдоподібності має вигляд
. (2.5.3)
Оцінки одержують завдяки максимізації зазначеного логарифму функції правдоподібності. Існують також ефективніші методи обчислювання функції правдоподібності.
Розглянемо побудову функції правдоподібності більш детально. Нехай − вибірка, яка має імовірнісний розподіл , де А − набір невідомих параметрів. Припустімо, що є незалежними, кожне із імовірнісним розподілом , та сумісний розподіл цілої сукупності подано формулою:
. (2.5.4)
Для відповіді на запитання, яке саме значення А максимізує ймовірність породження моделлю саме вибірки , потрібно максимізувати функцію правдоподібності:
. (2.5.5)
Для подальшої оптимізації необхідно точно знати розподіл вибірки. Припустімо, що аналізується модель
,
де у − часовий ряд,
X − матриця екзогенних змінних,
− вектор збурень, який має нормальний розподіл із нульовим вектором математичних сподівань та коваріаційною матрицею . Тоді функція правдоподібності матиме вигляд:
. (2.5.6)
У загальному випадку ані функція правдоподібності, ані її логарифм не є лінійними, тож знайти максимум функції правдоподібності в аналітичному вигляді дуже важко. Тому потрібно використовувати числові методи знаходження максимуму функції, наприклад метод Гауса, загальний алгоритм яких складається із таких кроків:
1) Покласти початкові значення для вектора .
2) Визначити напрям руху для , в якому значення L() збільшується.
3) Визначити довжину кроку й обчислити нове значення .
4) Перевірити критерій зупинки. Якщо алгоритм треба продовжити, то задаємо й повертаємося до кроку 2.
Звичайним критерієм зупинки є , де − наперед задане мале число.
За допомогою відповідних функцій правдоподібності відбувається тестування гіпотез. Розглянемо критерії перевірки гіпотези Н0 проти альтернативної Н1 у загальному випадку. Існує три основні класи тестових статистик: тест Вальда, тест за допомогою множників Лагранжа, тест на основі відношень значень функцій правдоподібностей. Усі ці критерії мають підгрунтям максимізацію функції правдоподібності. Вони є асимптотично еквівалентними. Ключовою різницею між цими трьома підходами є вибір оцінки для розрахунків. Метод відношень функцій правдоподібності є найстарішим з усіх цих тестів, він був розроблений Нейманом та Пірсоном у 1928 році. Сутність методу полягає у порівнянні значень функцій правдоподібності за умови Н0 (із обмеженнями) та без її врахування (без обмежень). Наприклад, нехай без урахування Н° оцінкою є , при врахуванні умови Н1 оцінкою буде . Тоді
, (2.5.7)
оскільки із визначення максимуму функції правдоподібності . Потрібно визначити, якою може бути величина , щоб можна було прийняти гіпотезу Н°, тобто чи є суттєвими обмеження, включені до Н°. Відповідна статистика має вигляд:
. (2.5.8)
Отже, для перевірки гіпотези Н° необхідно підрахувати значення LRT та порівняти його з − статистикою, де кількість ступенів свободи визначається кількістю обмежень у гіпотезі Н°. Якщо , то гіпотеза Н° відхиляється.
Діагностика моделі. Після знаходження оцінок параметрів треба перевірити, чи є побудована модель адекватною. Існує кілька різновидів критеріїв (див. розділ 7), що визначають значущість та стійкість параметрів, властивості залишків і придатність моделі для прогнозування. У цьому розділі розглянемо додаткові можливості діагностики, специфічні для -моделей.
Перевірка залишків. Усі теоретичні моделі містять випадкову компоненту, тож, якщо оцінена модель коректна, залишки мають бути “білим шумом”. Залишки моделі отримують відніманням від реальних спостережень значень, обчислених за моделлю, тобто .
Для -процесу послідовність залишків будують за правилом:
, . (2.5.8)
Зазначимо, що не визначені для .
Для -моделі залишки обчислюють рекурентно:
,
, (2.5.9)
тощо, та для .
Нарешті для -процесу маємо
,
, . (2..5.10)
Отримані залишки треба перевірити на відповідність “білому шуму”. Для цього обчислюють АКФ та ЧАКФ залишків і перевіряють їхню статистичну значущість за критеріями, розглянутими у розділі 1.1.3 (Бокса-Пірса, Льюнга-Бокса, стандартне відхилення). Інший критерій розглядає розподіл залишків, який вважають нормальним у разі малої вибірки (див. 7.1).
Критерії вибору кращої моделі. Коли задовільними виявляються кілька моделей, потрібне правило вибору між ними. Бокс і Дженкінс запропонували принцип ощадливості, згідно з яким, маючи кілька адекватних моделей, треба обрати модель із найменшою кількістю параметрів. Для використання цього принципу треба формалізувати правило компромісу між точністю пристосування моделі та кількістю її параметрів. Існує кілька підходів до розв’язання цієї проблеми.
Порівняння моделей. Припустімо, що розрахована задовільна -модель часового ряду за методом максимальної правдоподібності, причому – максимальне значення функції правдоподібності. Тепер те саме розрахуємо для – та -моделей. Отримаємо значення та відповідно. Згідно зі стандартною теорією тестування функції правдоподібності (2.5.8), якщо початкова -модель є коректною, то статистики та розподілені як -розподіл. Така перевірка є дуже простою. Але якщо дані сильно корелюють між собою, таке тестування може давати неправильні результати.
Числові критерії. На відміну від попередніх тестувань, числові критерії лише дають певне значення, за яким можна судити про адекватність моделі. Загальну характеристику критеріїв наведено у таблиці 2.5.2 [29].
Таблиця 2.5.2
Числові критерії
Назва критерію | Формула підрахунку | Бажаний екстремум |
Коефіцієнт детермінації | 1 | |
Скоригований коефіцієнт детермінації | 1 | |
Інформаційний критерій Акаїке () | Min | |
Інформаційний критерій Шварца-Ріссанена () | Min | |
Критерій Ханнана-Квіна () | Min | |
Прогнозовий критерій () | Min |
Однією із пропозицій є обчислення коефіцієнта детермінації (R2) та зваженого коефіцієнта детермінації (). Однак цей метод непридатний для різницевої змінної у деяких моделях.
Інформаційні критерії грунтовані на мінімізації певних статистик, що мають стандартні розподіли.
Інформаційний критерій Акаїке () розглядає нелінійне компромісне співвідношення між дисперсією залишків і значенням загальної кількості оцінюваних параметрів , оскільки моделі з більшою кількістю оцінюваних параметрів можна віддати перевагу лише за пропорційно великого зменшення дисперсії залишків.
Інформаційний критерій Шварца-Ріссанена () надає більшої ваги порівняно із АІС за п >7, тобто зростання кількості оцінюваних параметрів потребує вагомішого зменшення дисперсії залишків для , ніж для .
Критерій Ханнана-Квіна (). Тут вага при є більшою за 2, якщо п >15.
Прогнозовий критерій () використовує похибку передбачення.
Вибір між цими критеріями є довільним, оскільки всі статистики змінюються в одному напрямі в разі збільшення кількості оцінюваних параметрів. На практиці користуються одним із них.
Прогнозування за допомогою моделей. В моделях, під час прогнозування значення змінної для майбутнього моменту часу, лагові значення цієї змінної, які слугують пояснюючими змінними (регресорами) моделі, можна розглядати або фіксованими на вибіркових значеннях, або випадковими. Перша можливість призводить до умовного прогнозу, на кшталт множинної регресії, друга – до безумовного прогнозу. Отже, у прогнозуванні за моделлю типу розглядають умовні та безумовні прогнози. Відомо, що умовна дисперсія випадкової величини не перевищує її безумовну дисперсію, тому точність умовного прогнозу завжди вища.
Якщо модель правильно специфікована, то можливі два джерела помилок прогнозів: невизначеність майбутніх значень випадкової величини , відсутність точних значень коефіцієнтів моделі (наявні тільки їхні оцінки).
Під час прогнозування за моделлю від наявної вибірки залежать як оцінки коефіцієнтів моделі, так і значення регресорів, тому важко аналітично виразити умовну дисперсію помилки прогнозу через спостереження часового ряду. Як правило, обмежуються припущенням про те, що коефіцієнти відомі точно. Зрозуміло, що таке припущення зменшує дисперсію помилки прогнозу і тим самим збільшує уявну точність як умовного, так й безумовного прогнозів.
Для досягнення мінімуму середньоквадратичної помилки (MSE), потрібно взяти умовне математичне сподівання: .
Прогноз за моделлю : . Якщо коефіцієнти моделі точно відомі і є значення для , то безумовним точковим прогнозом для будь-якого моменту часу буде математичне сподівання процесу, тобто . Умовним прогнозом для моменту часу буде умовне математичне сподівання:
. (2.5.11)
Серед випадкових величин , що знаходяться ліворуч, є такі, що пов’язані зі спостереженнями. Оскільки спостереження складаються із “модельного значення” й похибки, умовні математичні сподівання усіх складових, окрім , не дорівнюють нулю.
Наприклад, є залишком між спостереженням і розрахунком за моделлю (прогнозом), тобто . Тому умовні математичні сподівання від усіх минулих значень випадкової складової треба замінити відповідними залишками. Так само будується прогноз на 2 й більше кроків вперед. Усі майбутні замінюються нулями, а минулі – залишками, які можна обчислити. Отже, для моделі прогноз залежить від того, які похибки були на попередніх кроках. Починаючи із кроку () умовний прогноз є математичним сподіванням , тобто умовний прогноз збігається із безумовним.
Умовна дисперсія помилки прогнозу на 1 крок упередження становить:
(2.5.12)
Аналогічно дисперсія прогнозу на 2 кроки упередження дорівнює:
, (2.5.13)
а дисперсія на кроків складає
для . (2.5.14)
Якщо , дисперсія помилки умовного прогнозу стає такою самою як і для безумовного прогнозу, тобто дорівнює дисперсії випадкового процесу .
Прогноз за моделлю : . Для прогнозу на один крок вперед можна записати:
.(2.5.15)
Тобто у рівняння моделі підставляють минулих значень реалізації часового ряду. Для прогнозу на два кроки вперед одержують:
. (2.5.16)
Математичне сподівання від випадкової похибки знов дасть 0, умовне математичне сподівання від дорівнює цим самим значенням, але до цього виразу входить умовне математичне сподівання від , яке отримане на попередньому кроці. Можна підставити його вираз й отримати розгорнуту формулу через значення реалізації. Насправді зручніше розглядати рекурентне співвідношення, яке пов’язує послідовні значення прогнозу. Це співвідношення є лінійним різницевим рівнянням порядку і його розв’язок прагне, якщо збільшується , до величини , тобто знов таки до безумовного прогнозу.
Умовну дисперсію помилки прогнозу розраховують аналогічно випадку моделі ковзної середньої, але доведення стають досить громіздкими навіть для моделей невеликого порядку. Наприклад, для моделі без вільного члена прогноз на один крок упередження становить: , та . Очевидно, що дисперсія помилки прогнозу на 1 крок дорівнює:
(2.5.17)
Для прогнозу на 2 кроки відповідно отримуємо:
,
.
Дисперсія помилки прогнозу на 2 кроки упередження дорівнює:
. (2.5.18)
Для прогнозу на 3 кроки отримуємо:
,
Дисперсія помилки прогнозу на 3 кроки дорівнює:
. (2.5.19)
Очевидно, що дисперсія помилки прогнозу збільшується із кожним кроком.
Значно простішими виходять вирази для дисперсії помилки прогнозу, якщо перейти від представлення до еквівалентного представлення: із необмеженою кількістю складових. Тоді дисперсію помилки прогнозу на кроків можна виразити формулою
. (2.5.20)
Для загальної моделі потрібно об’єднати усе те, про що говорилося вище. За моделлю, підставляючи туди для часу спостереження та розраховані значення залишків, обчислюють прогнозовані значення , а для майбутніх моментів часу − замінюють залишки нулями і замість підставляють їхні прогнозовані значення. Дисперсію помилки прогнозу обчислюють за формулою (2.5.20).
Наприклад, для моделі :
, де , , …, , починаючи із другого коефіцієнти спадають за геометричною прогресією. Звідси легко обчислити дисперсію помилки прогнозу на кроків:
. (2.5.21)
Для цієї моделі дисперсія помилки прогнозу асимптотично дорівнює дисперсії часового ряду.
В усіх розглянутих випадках умовний точковий прогноз асимптотично наближається до математичного сподівання ряду, а дисперсія помилки прогнозу – до дисперсії ряду. Це означає, що для стаціонарного процесу вплив наявної інформації на прогноз та його точність асимптотично спадає до нуля. До того ж при збільшенні горизонту прогнозування дисперсія помилки не перевищує дисперсії часового ряду. Цей висновок нажаль є наслідком нереалістичного припущення про те, що коефіцієнти моделі відомі точно.
Приклад 2.5.1. Користуючись методикою Бокса-Дженкінса, розрахувати прогноз чисельності населення в Україні на підставі часового ряду спостережень за 24 роки.
Рис. 2.5.1. Графік (чисельності населення за 24 роки) Рис. 2.5.2. Перші різниці .
- Аналіз стаціонарності процесу і визначення порядку оператора різницевих перетворень початкового ряду. Для визначення порядку різницевого оператора використовували такі засоби, як візуальний аналіз графіків процесів та його різницевих перетворень, порівняння автокореляційної та часткової автокореляційної функцій із відповідними функціями відомих (типових) ARІMA процесів, а також, емпіричний критерій, сутність якого полягає у пошуку такого значення , для якого середнє квадратичне відхилення буде мінімальним. Із графіка залежності від часу (рис. 2.5.1) видно, що часовий ряд нестаціонарний. Тільки друге різницеве перетворення зводить початковий процес до стаціонарного вигляду, про що свідчить рисунок 2.5.3. Із розрахунків описової статистики (табл. 2.5.2) можна дійти висновку, що мінімальне середньоквадратичне відхилення відповідає інтегрованому процесу другого порядку (=2). Із графіка (рис. 2.5.4) видно, що вибіркова автокореляційна функція експоненціально згасає, змінюючи знак, а часткова автокореляційна функція теж має згасаючий характер (рис. 2.5.5). Отже, ряд других різниць можна віднести до стаціонарного.
Рис. 2.5.3. Другі різниці
Таблиця 2.5.2
Описова статистика
Змінна | Середнє
значення |
Стандартне
відхилення |
MIN | MAX | Перший
випадок |
Другий
випадок |
N |
VAR1 | 50758,37 | 1137,026 | 48202,5 | 52200,0 | 1,000000 | 24,00000 | 24,00000 |
VAR1 : D(-1) | -67,50 | 355,803 | -876,30 | 458,70 | 2,000000 | 24,00000 | 23,00000 |
VAR1 : D(-1); D(-1) | -17,60 | 276,166 | -457,30 | 663,30 | 3,000000 | 24,00000 | 22,00000 |
VAR1 : D(-1); D(-1); D(-1) | 28,02 | 456,691 | -826,90 | 1120,60 | 4,000000 | 24,00000 | 21,00000 |
Рис. 2.5.4. АКФ процесу Рис. 2.5.5. ЧАКФ процесу
- Вибір параметрів в ARMA-моделі, яка представляє стаціонарний часовий ряд . Оскільки вибіркова АКФ (рис. 2.5.4) швидко згасає, а у вибірковій ЧАКФ (рис. 2.5.5) тільки значення із лагом 1 суттєво відрізняється від нуля, тобто після першого коефіцієнта вона різко обривається, можна зробити попередній висновок, що модель має характеристики ARІMA(1,2,0). Зазначимо, що вибіркові АКФ та ЧАКФ є спроможними оцінками теоретичних АКФ та ЧАКФ, але точність їх залежить від довжини ряду спостережень. Тому в процесі оцінювання, потрібно застосувати ще кілька видів ARІMA моделей.
- Оцінювання параметрів ARІMA моделі здійснювали за допомогою спеціалізованого пакету STATISTICA. В результаті отримали таку прогнозову модель (табл. 2.5.3):
Таблиця 2.5.3
Результати оцінювання ARIMA(1,2,0)-моделі
Параметри | Asympt.
Std.Err. |
Asympt.
Std.Err. |
p | Нижня межа
95% |
Верхня межа
95% |
|
Постійна | -31,2447 | 31,94315 | -0,97813 | 0,339692 | -97,8769 | 35,38755 |
p(1) | -0,6543 | 0,23047 | -2,83919 | 0,010137 | -1,1351 | -0,17359 |
Корінь із середньоквадратичної похибки (MSE) дорівнює 237,2; що становить 0,4% від середнього значення показника.
Рис. 2.5.6. АКФ залишків Рис. 2.5.7. ЧАКФ залишків
- Перевірку адекватності моделі здійснювали за допомогою аналізу залишків та порівняння їх автокореляційної й часткової автокореляційної функцій із відповідними функціями для процесу “білого шуму”. Із графіків АКФ та ЧАКФ видно (рис. 2.5.6 – 2.5.7), що ряд залишків нагадує процес “білого шуму”, тобто немає періодичних коливань, систематичного зсуву та значущих кореляцій між ним. Про це також свідчить описова статистика ряду залишків. Гістограма залишків (рис. 2.5.8) із накладеним графіком нормальної щільності розподілу доводить симетричність і близькість їх до нормального розподілу. Аналогічний висновок випливає із графіка залишків, побудованого за нормальною ймовірнісною шкалою (рис. 2.5.9). Отже, модель доволі адекватно описує вхідний ряд.
Рис. 2.5.8. Гістограма залишків Рис. 2.5.9. Графік залишків за шкалою
ARIMA(1,2,0)–моделі нормальної імовірності
Про високу точність прогнозової моделі свідчитьїї верифікація за допомогою так званого EX POST-прогнозування. Похибка прогнозу за критерієм МАРЕ (середньої абсолютної відсоткової похибки) становила 0,2%.
- Прогнозування часового ряду чисельності населення на підставі побудованої моделі ілюструє графік на рис. 2.5.10. Оцінки стандартних похибок апроксимації прогнозу на наступні десять років не перевищують 10% (Табл. 2.5.4).
Рис. 2.5.10. Прогноз чисельності населення України на підставі побудованої моделі
Таблиця 2.5.4
Прогноз чисельності населення України на 10–річний період упередження
Forecasts; Model:(1,2,0) Вхід:
Start of origin: 1 End of origin: 24 |
||||
Прогноз | Нижня межа
90.00% |
Верхня межа
90.00% |
Std.Err. | |
25 | 47503,79 | 47094,78 | 47912,80 | 237,145 |
26 | 47071,21 | 46385,49 | 47756,93 | 397,585 |
27 | 46412,80 | 45307,49 | 47518,11 | 640,863 |
28 | 45850,47 | 44312,93 | 47388,01 | 891,475 |
29 | 45173,58 | 43130,32 | 47216,84 | 1184,693 |
30 | 44519,96 | 41941,03 | 47098,89 | 1495,276 |
31 | 43799,43 | 40635,19 | 46963,67 | 1834,641 |
32 | 43070,99 | 39288,51 | 46853,47 | 2193,100 |
33 | 42296,04 | 37856,11 | 46735,97 | 2574,294 |
34 | 41499,83 | 36370,37 | 46629,29 | 2974,084 |