3. Teskari tarqalishli protseduralar yordamida NTlarni obyektlarni tanib olishga o’rgatishning to’liq algoritmi
NTlarning turli strukturalari orasida ko’pqatlamli strukturali tarmoqlar ancha mashhur hisoblanadi. Ko’pqatlamli strukturali tarmoqlarda ixtiyoriy qatlamning har bir neyroni oldingi qatlamlarning barcha aksonlari bilan, faqat birinchi qatlamda esa-neyronlar faqat tarmoqining barcha kirishlari bilan bog’langan bo’ladi. Bunday tarmoqlar to’liq bo’g’langan deyiladi.
Ko’pqatlamli tarmoqlarda oxirgi qatlamdan tashqari barcha qatlamlarda neyronlarning optimal chiqish qiymatlari noma’lum bo’ladi va ikki yoki undan yuqori qatlamli perseptronni obyektlarni tanib olishga o’rgatish mumkin emas. Bu muammolarni yechish variantlaridan biri -bu NTlarning har bir qatlamdagi kirishlariga mos chiqish signallarning naborlarini yaratishdan iborat. Bu albatta, ko’p mehnatni talab qiladigan ish va hamma vaqt ham buni amalga oshirib bo’lmaydi. Ikkinchi variant -bu vaznli koeffitsientlarni dinamik ravishda moslashtirishdan (to’g’rilashdan) iborat bo’lib, bunda qoida bo’yicha bog’lanishlarga ega bo’lgan vaznli koeffitsientlar tanlanadi va ularning qiymati barcha tarmoqlarning chiqishidagi xatoliklarni kamytirishga olib kelish nuqtai nazaridan o’zgartiriladi. Bu variantda ham juda ko’p hisoblashlarni amalga oshirish talab etiladi. Ba nihoyat uchinchi, ancha qulay variant - bu NTlarning chiqishidan ularning kirishiga xatoli signallarni tarqatish, ya’ni oadatdagi ish rejimida signallarning to’g’ri tarqalishiga teskari yo’nalishni hosil qilishdan iborat. NTlarni bunday o’rgatish algoritmi teskari tarqalishli protseduralar deb nomlanadi [3, 4].Quyida ushbu protseduralar qaraladi.
Eng kichik kvadratlar usuliga asosan NTlarda maqsadli funksiyani minimallashtirish qiymati [3-7]:
(15.1)
hisoblanadi. Bu yerda - NTning kirishiga p-obyektni uzatganda, ushbu tarmoqning N -qatlamining chiqishidagi j-neyronning haqiqiy chiqish signali; djp - j-neyronning haqiqiy chiqish holati.
Yig’indini hosil qilish chiqish qatlamidagi barcha neyronlar va tarmoq yordamida qayta ishlanadigan barcha obyektlar amalga oshiriladi. Minimallashtirish vaznli koeffitsiyentlarni moslashtirishga mo’ljallangan gradiyentli tushish usuli yordamida quyidagicha amalga oshiriladi:
(15.2)
Bu yerda wij-(n-1)-qatlamning i-neyronini n-qatlamning j-neyronlari bilan bo’g’lovchi sinaptik aloqalarning vaznli koeffitsiyenti; - NTni o’rgatish tezligi koeffitsiyenti, 0<<1.
[5] ishda ko’rsatilganidek,
(15.3)
Bu yerda yj-j-neyronning chiqishi, sj -kirish signallarining orttirilgan yig’indisi, ya’ni aktivlashgan funksiyaning argumentlari. dyj / dsj aktivlashgan funksiyaning argumentlaridan olingan hosila. NTlarda giperbolikli tangens yoki exsponentali klassikli сигмоид funksiyalardan foydalaniladi. Giperbolikli tangensdan foydalanganda . (15.4)
Uchinchi ko’paytuvchi sj/wijkorinib turibdiki oldingi yi(n-1) qatlamdagi neyronning chiqishiga teng.
(15.3) formulaning birinchi ko’paytuvchisi quyidagi ko’rinishda tarqatiladi [2]:
(15.5)
Bu yerda k bo’yicha yig’indini hosil qilish (n+1)-qatlamdagi neyronlar o’rtasida bajariladi.
Yangi o’’zgaruvchini kiritish
(15.6)
bilan biz ancha katta (n+1)-qatlamdagi k(n+1)qiymatdan n-qatlamda j(n)qiymatni hisoblash uchun rekursiv funksiyani hosil qilamiz.
. (15.7)
Chish qatlami uchun esa
. (15.8)
Endi biz (15.1) ni kengaytirilgan ko’rinishda yozamiz:
(15.9)
Ba’zida vaznlarni to’g’rilash maqsadida (15.9) formula oldingi iteratsiyadagi vaznning o’zgargan qiymati bilan to’ldiriladi
, (15.10)
bu yerda - inertlilik koeffitsiyent, t - joriy iteratsiyaning tartib raqami.
Demak, teskari tarqalishli protseduralar yordamida NTlarni obyektlarni tanib olishga o’rgatishning to’liq алгоритмi quyidagicha quriladi [4]: 1. Tarmoqning kirishiga mumkin bo’lgan obyektlardan biri uzatiladi. NT odatdagi ishlash rejimida, ya’ni signallar kirishdan chiqishga tarqalganda oxirgi chishni hisoblash talab etiladi.Eslatamizki,
, (15.11)
bu yerda M -neyronning o’zgarmas +1 chiqish holatini hisobga olganda (n-1)-qatlamdagi neyronlar soni; yi(n-1)=xij(n) - n-qatlamni j-neyronining i-kirishi.
yj(n) = f(sj(n)), bu yerda f() - сигмоид (15.12)
yq(0)=Iq, (15.13)
bu yerda Iq - kirish obyekti vektorining q-komponentasi.
2. Chiqish qatlami uchun (15.6) formula bo’yicha (N) ni hisoblash. N-qatlam uchun w(N) vaznlarning o’zgarishini(15.9) yoki (15.10) formula bo’yicha hisoblash.
3. Barcha qolgan qatlamlar uchun (n) va w (n) (n=N-1,...1.)qiymatlarni mos ravishda (15.7) va (15.9) (yoki (15.7) va (15.10)) formulalar bo’yicha hisoblash.
4. NTda barcha vaznlarini to’g’rilash
(15.14)
5. NTda xato muhim bo’lsa, u holda 1-qadamga o’tiladi, aks holda algoritm o’z ishini to’xtatadi.
Ushbu algoritmning ishlash jarayonini 15.4-rasmdagidek namoyish etish mumkin [4].