Neyron tarmoq asosida obyektlarni tanib olish


Teskari tarqalishli protseduralar yordamida NTlarni obyektlarni tanib olishga o’rgatishning to’liq algoritmi



Download 240,98 Kb.
bet7/9
Sana23.06.2022
Hajmi240,98 Kb.
#696535
1   2   3   4   5   6   7   8   9
Bog'liq
15- мавзу.(NT sinflashtirish) 457-469

3. Teskari tarqalishli protseduralar yordamida NTlarni obyektlarni tanib olishga o’rgatishning to’liq algoritmi

NTlarning turli strukturalari orasida ko’pqatlamli strukturali tarmoqlar ancha mashhur hisoblanadi. Ko’pqatlamli strukturali tarmoqlarda ixtiyoriy qatlamning har bir neyroni oldingi qatlamlarning barcha aksonlari bilan, faqat birinchi qatlamda esa-neyronlar faqat tarmoqining barcha kirishlari bilan bog’langan bo’ladi. Bunday tarmoqlar to’liq bo’g’langan deyiladi.


Ko’pqatlamli tarmoqlarda oxirgi qatlamdan tashqari barcha qatlamlarda neyronlarning optimal chiqish qiymatlari noma’lum bo’ladi va ikki yoki undan yuqori qatlamli perseptronni obyektlarni tanib olishga o’rgatish mumkin emas. Bu muammolarni yechish variantlaridan biri -bu NTlarning har bir qatlamdagi kirishlariga mos chiqish signallarning naborlarini yaratishdan iborat. Bu albatta, ko’p mehnatni talab qiladigan ish va hamma vaqt ham buni amalga oshirib bo’lmaydi. Ikkinchi variant -bu vaznli koeffitsientlarni dinamik ravishda moslashtirishdan (to’g’rilashdan) iborat bo’lib, bunda qoida bo’yicha bog’lanishlarga ega bo’lgan vaznli koeffitsientlar tanlanadi va ularning qiymati barcha tarmoqlarning chiqishidagi xatoliklarni kamytirishga olib kelish nuqtai nazaridan o’zgartiriladi. Bu variantda ham juda ko’p hisoblashlarni amalga oshirish talab etiladi. Ba nihoyat uchinchi, ancha qulay variant - bu NTlarning chiqishidan ularning kirishiga xatoli signallarni tarqatish, ya’ni oadatdagi ish rejimida signallarning to’g’ri tarqalishiga teskari yo’nalishni hosil qilishdan iborat. NTlarni bunday o’rgatish algoritmi teskari tarqalishli protseduralar deb nomlanadi [3, 4]. Quyida ushbu protseduralar qaraladi.
Eng kichik kvadratlar usuliga asosan NTlarda maqsadli funksiyani minimallashtirish qiymati [3-7]:
(15.1)
hisoblanadi. Bu yerda - NTning kirishiga p-obyektni uzatganda, ushbu tarmoqning N -qatlamining chiqishidagi j-neyronning haqiqiy chiqish signali; djp - j-neyronning haqiqiy chiqish holati.
Yig’indini hosil qilish chiqish qatlamidagi barcha neyronlar va tarmoq yordamida qayta ishlanadigan barcha obyektlar amalga oshiriladi. Minimallashtirish vaznli koeffitsiyentlarni moslashtirishga mo’ljallangan gradiyentli tushish usuli yordamida quyidagicha amalga oshiriladi:
(15.2)
Bu yerda wij-(n-1)-qatlamning i-neyronini n-qatlamning j-neyronlari bilan bo’g’lovchi sinaptik aloqalarning vaznli koeffitsiyenti; - NTni o’rgatish tezligi koeffitsiyenti, 0<<1.
[5] ishda ko’rsatilganidek,
(15.3)
Bu yerda yj -j-neyronning chiqishi, sj -kirish signallarining orttirilgan yig’indisi, ya’ni aktivlashgan funksiyaning argumentlari. dyj / dsj aktivlashgan funksiyaning argumentlaridan olingan hosila. NTlarda giperbolikli tangens yoki exsponentali klassikli сигмоид funksiyalardan foydalaniladi. Giperbolikli tangensdan foydalanganda
. (15.4)
Uchinchi ko’paytuvchi sj/wij korinib turibdiki oldingi yi(n-1) qatlamdagi neyronning chiqishiga teng.
(15.3) formulaning birinchi ko’paytuvchisi quyidagi ko’rinishda tarqatiladi [2]:
(15.5)
Bu yerda k bo’yicha yig’indini hosil qilish (n+1)-qatlamdagi neyronlar o’rtasida bajariladi.
Yangi o’’zgaruvchini kiritish
(15.6)
bilan biz ancha katta (n+1)-qatlamdagi k(n+1) qiymatdan n-qatlamda j(n) qiymatni hisoblash uchun rekursiv funksiyani hosil qilamiz.
. (15.7)
Chish qatlami uchun esa
. (15.8)
Endi biz (15.1) ni kengaytirilgan ko’rinishda yozamiz:
(15.9)
Ba’zida vaznlarni to’g’rilash maqsadida (15.9) formula oldingi iteratsiyadagi vaznning o’zgargan qiymati bilan to’ldiriladi
, (15.10)
bu yerda - inertlilik koeffitsiyent, t - joriy iteratsiyaning tartib raqami.
Demak, teskari tarqalishli protseduralar yordamida NTlarni obyektlarni tanib olishga o’rgatishning to’liq алгоритмi quyidagicha quriladi [4]:
1. Tarmoqning kirishiga mumkin bo’lgan obyektlardan biri uzatiladi. NT odatdagi ishlash rejimida, ya’ni signallar kirishdan chiqishga tarqalganda oxirgi chishni hisoblash talab etiladi.Eslatamizki,
, (15.11)
bu yerda M -neyronning o’zgarmas +1 chiqish holatini hisobga olganda (n-1)-qatlamdagi neyronlar soni; yi(n-1)=xij(n) - n-qatlamni j-neyronining i-kirishi.
yj(n) = f(sj(n)), bu yerda f() - сигмоид (15.12)
yq(0)=Iq, (15.13)
bu yerda Iq - kirish obyekti vektorining q-komponentasi.
2. Chiqish qatlami uchun (15.6) formula bo’yicha (N) ni hisoblash. N-qatlam uchun w(N) vaznlarning o’zgarishini (15.9) yoki (15.10) formula bo’yicha hisoblash.
3. Barcha qolgan qatlamlar uchun (n) va w (n) (n=N-1,...1.)qiymatlarni mos ravishda (15.7) va (15.9) (yoki (15.7) va (15.10)) formulalar bo’yicha hisoblash.
4. NTda barcha vaznlarini to’g’rilash
(15.14)
5. NTda xato muhim bo’lsa, u holda 1-qadamga o’tiladi, aks holda algoritm o’z ishini to’xtatadi.
Ushbu algoritmning ishlash jarayonini 15.4-rasmdagidek namoyish etish mumkin [4].



15.4-rasm. Xatoliklarni teskari tarqalishli tarmoqini strukturali sxemasi.



Download 240,98 Kb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8   9




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish