Vektor autoregressiyasi (VAR)
190
– prognoz qilinayotgan kattalik
y
ga
𝑥
𝑖
(𝑖 = 1,2, … , 𝑘)
o`zgaruvchilar va ularning laglari orqali model yaratishga asoslanadi. Bunda, ko`rsatkichlar
endogen – model ichida o`zgaruvchi va ekzogen – modeldan tashqarida o`zgaradigan
kattaliklarga ajratiladi, uning umumiy formulasi:
𝑦
𝑡
= 𝜐 + ∑
𝛷
(𝑙)
𝑦
𝑡−𝑙
+ ∑
𝛽
(𝑗)
𝑥
𝑡−𝑗
+ 𝑢
𝑡
𝑠
𝑗=1
𝑝
𝑙=1
(4)
Bunda,
𝑦
𝑡
- endogen o`zgaruvchilar vektori,
𝜐
– konstant vektor,
𝛷
(𝑙)
- l lagda endogen
o`zgaruvchilar parametrlari matritsasi,
𝑥
𝑡
- ekzogen o`zgaruvchilar vektori.
187
Izoh: Bundan keyingi o`rinlarda RW shaklida yoziladi
188
Izoh: ARIMA (p, d, q) da, p – lag miqdori, d – ayirishlar soni, q – sirg`aluvchan o`ratachadagi hadlar soni
189
https://people.duke.edu/~rnau/411arim.htm
190
https://www.econometrics-with-r.org/16-1-vector-autoregressions.html
792
3.2.2. Additiv va multiplikativ modellar
Additiv va multiplikativ modellar vaqtli qatorlarni tahlil qilishda muhim ahamiyatga ega
bo`lib hisoblanadi. Ushbu modellarning asosiy mazmuni har qanday ko`rsatkich umumiy
trend, unga mavsumiy omillar ta’siri va boshqa kutilmagan ta’sirlar tufayli kelib chiqishiga
asoslanadi.
Additiv modellar
191
:
𝑦 = 𝑇 + 𝑆 + 𝐸 + 𝜖
(5)
Multiplikativ modellar
192
:
𝑦 = 𝑇 ∙ 𝑆 ∙ 𝐸 + 𝜖
(6)
Bunda,
𝑇
– trend,
𝑆
– mavsumiylik,
𝐸
– boshqa ta’sir etuvchi omillar,
𝜖
– xatolik. Additiv
va multiplikativ modellar o`rtasidagi asosiy farq ularning omillar o`zaro qo`shilishi yoki
ko`paytirilishi kerak ekanligida farqlanadi.
3.2.3. Regularizatsiyali modellar
Prognozlash uchun tuzilgan modellarning eng katta muammosi nima ekanligi haqida
yuqorida ham fikr yuritgan edik – model tanlanma ichida past darajada xatolik natijasini
ko`rsatsa-da, tanlanmadan tashqarida prognozlashga yaramaydi. Bu muammo “ortiqcha
o`qitish” (overfitting) deb ataladi. Ya’ni, model tanlanmadagi o`zi ko`rgan ma’lumotlarga
xos bo`lgan, lekin umumiy iqtisodiy jarayonlarda mavjud bo`lmagan ma’lumotlarni
o`zlashtirish asosida ortiqcha “o`qiydi”. Nazariy jihatdan tanlanmada xatolik darajasini
1%dan kamaytiraduigan model yaratish mumkin, lekin bu modeldan prognozlashda
foydalanish masalasi ochiqligicha qoladi.
Ushbu masalani hal qilish uchun oddiy chiziqli regressiya tenglamasiga modelning haddan
oshiqcha “o`rganishini” tartibga solib turuvchi regularizator qo`shiladi. Umumiy ma’noda
ushbu regularizator quyidagicha formulaga ega
193
:
𝑅(𝑥) = 𝛾 ∑
|𝑥
𝑖
|
𝑞
𝑖=1
+ (1 − 𝛾) ∑
𝑥
𝑖
2
𝑞
𝑖=1
(7)
191
Breiman, L. and Friedman, J.H. (1985). "Estimating Optimal Transformations for Multiple Regression and Correlation",
Journal of the American Statistical Association p:580–598.
192
Breiman, L. and Friedman, J.H. (1985). "Estimating Optimal Transformations for Multiple Regression and Correlation",
Journal of the American Statistical Association p:580–598.
193
5.
Baybuza, I. (2018). Infation Forecasting Using Machine Learning Methods. Russian Journal of Money and Finance,
77(4), pp. 42–59.
793
bunda,
𝑅(𝑥)
– chiziqli regressiya tenglamasi,
𝛾 ∈ [0; 1]
,
𝑞
–
𝑥
parametrlar soni. Yuqoridagi
regularizatorda
𝛾 ∈ (0; 1)
bo`lganda, ushbu model elastik to`r (Elastic Net) deb ataladi.
𝛾 =
1
holatda bu model
LASSO (Least Absolute Shrinkage and Selection Operator)
deb ataladi.
𝛾 = 0
bo`lgan holat esa
Ridj-regressiya (Ridge regression)
deb ataladi.
Ularning tenglamalarini quyidagicha ko`rsatish mumkin
194
:
𝑦(𝛽̂) = ∑
(𝑌 − 𝑋𝛽̂)
2
+ 𝜆 ∑
|𝛽
𝑗
̂ |
𝑝
𝑗=1
𝑛
𝑖=1
→ 𝑚𝑖𝑛
(8)
Yuqoridagi formula LASSO regressiyasining formulasi hisoblanadi.
Ridge regressiyasi LASSOga o`xshash bo`lsa-da, undan biroz farq qiladi
195
.
𝛽̂ = ∑
(𝑌 − 𝑋𝛽̂)
2
+ 𝜆 ∑
(𝛽
𝑗
̂ )
2
𝑝
𝑗=1
𝑛
𝑖=1
→ 𝑚𝑖𝑛
(9)
Elastik to`r
(Elastic Net)
modeli yuqoridagi ikki modelni qo`shish orqali hosil qilinadi
196
:
𝛽̂ = ∑
(𝑌 − 𝑋𝛽̂)
2
+ 𝜆 ∑
[(1 − 𝛼)(𝛽
𝑗
̂ )
2
+ 𝛼|𝛽
𝑗
̂ |]
𝑝
𝑗=1
𝑛
𝑖=1
→ 𝑚𝑖𝑛
(10)
Tenglamadagi
𝜆
regularziator orqali model umumiy qonuniyatlardan chiqib ketib,
tanlanmaga moslashib qolgan holda o`ziga xos “jarima” solinadi. Ushbu jarima
koeffitsientini tanlashning bir qancha metodlari mavjud. Birinchidan, Akaike va Bayes
axborot kriteriyalari (AIC va BIC) orqali yoki ML da keng qo`llaniladigan kross-validatsiya
(cross-validation) dan foydalaniladi.
194
Tibshirani, Robert (1996). "Regression Shrinkage and Selection via the lasso". Journal of the Royal Statistical Society.
Series B (methodological). Wiley. 58 (1): 267–88.
195
http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.Ridge.html
(25/01/2020)
196
https://scikit-learn.org/stable/modules/linear_model.html
(25/01/2020)
794
Do'stlaringiz bilan baham: |