O'rganish - bu kuzatuvlarning namunalarini ko'rib chiqish orqali vazifani yaxshiroq
bajarish uchun tarmoqni moslashtirish. O'rganish natijaning
aniqligini oshirish uchun
tarmoqning og'irliklarini (va ixtiyoriy chegaralarini) sozlashni o'z ichiga oladi. Bu
kuzatilgan xatolarni minimallashtirish orqali amalga oshiriladi. Qo'shimcha kuzatuvlarni
o'rganishda xatolik darajasi foydali ravishda kamaytirilmasa, o'rganish tugallanadi.
O'rgandan keyin ham xato darajasi odatda 0 ga etmaydi. Agar o'rgangandan so'ng xato
darajasi juda yuqori bo'lsa, tarmoq odatda qayta ishlab chiqilishi kerak. Amalda bu a ni
aniqlash orqali amalga oshiriladi xarajat funktsiyasi bu o'rganish paytida vaqti-vaqti bilan
baholanadi. Uning ishlab chiqarish hajmi
pasayishda davom etar ekan, o'rganish davom
etadi. Xarajat tez-tez a sifatida belgilanadi statistik uning qiymati faqat taxminiy bo'lishi
mumkin. Chiqishlar aslida raqamlar, shuning uchun xato kam bo'lsa, chiqish (deyarli
mushuk) va to'g'ri javob (mushuk) o'rtasidagi farq juda oz. Kuzatishlar bo'yicha
farqlarning umumiy miqdorini kamaytirishga o'rganish.
[38]
Ko'pgina o'quv
modellari
to'g'ridan-to'g'ri dastur sifatida qaralishi mumkin optimallashtirish nazariya va statistik
baho.
O'quv darajasi
O'quv darajasi model har bir kuzatuvdagi xatolarni to'g'rilash uchun zarur bo'lgan
tuzatish bosqichlarining hajmini belgilaydi. O'qishning yuqori darajasi mashg'ulot vaqtini
qisqartiradi, ammo yakuniy aniqligi pastroq, o'qish darajasi pastroq bo'lsa, ko'proq aniqlik
olish imkoniyati mavjud. Kabi optimallashtirishlar Quickprop birinchi navbatda xatolarni
minimallashtirishni tezlashtirishga qaratilgan bo'lib, boshqa
yaxshilanishlar asosan
ishonchliligini oshirishga harakat qiladi. Tarmoq ichidagi o'zgaruvchan ulanish
og'irliklari kabi tebranishdan saqlanish va konvergentsiya tezligini oshirish uchun
yaxshilanishlar adaptiv
ta'lim
darajasi tegishli
ravishda
ko'payadi
yoki
kamayadi.
[47]
Impuls momenti tushunchasi gradient va oldingi o'zgarish o'rtasidagi
muvozanatni og'irlik sozlamalari avvalgi o'zgarishga ma'lum darajada bog'liq bo'lishi
uchun tortish imkonini beradi. 0 ga yaqin momentum gradiyentni ta'kidlaydi, 1 ga yaqin
qiymat oxirgi o'zgarishni ta'kidlaydi.
Xarajat funktsiyasi
Xarajat funktsiyasini aniqlash mumkin bo'lsa-da maxsus,
tez-tez tanlov
funktsiyaning kerakli xususiyatlari bilan belgilanadi (masalan qavariqlik) yoki u
modeldan kelib chiqqanligi sababli (masalan, ehtimollik modelida modelning) orqa
ehtimollik teskari xarajat sifatida ishlatilishi mumkin).
Orqaga targ'ib qilish
Asosiy maqola: Orqaga targ'ib qilish
Backpropagation - bu o'rganish paytida topilgan har bir xato o'rnini qoplash uchun
ulanish og'irliklarini sozlash usuli. Xato miqdori ulanishlar
orasida samarali ravishda
bo'linadi.
Texnik
jihatdan,
backprop
hisoblaydi gradient (lotin)
ning xarajat
funktsiyasi og'irliklarga nisbatan berilgan holat bilan bog'liq. Og'irlikni yangilash orqali
amalga
oshirilishi
mumkin stoxastik
gradient
tushish yoki
boshqa
usullar,
masalan Ekstremal
o'quv
mashinalari,
[48]
"Yoqilg'i
yo'q"
tarmoqlari,
[49]
orqaga
qaytmasdan mashq qilish,
[50]
"vaznsiz" tarmoqlar,
[51][52]
va konnektistik bo'lmagan neyron
tarmoqlar.
Paradigmalarni o'rganish
Ushbu bo'lim a ni o'z ichiga oladi foydalanilgan
adabiyotlar
ro'yxati,
tegishli
o'qish
yoki tashqi
havolalar,
Do'stlaringiz bilan baham: