3. BIR QATLAMLI NEYRON TARMOQ
Bitta neyron eng oddiy hisob-kitoblarni amalga oshirishi mumkin, ammo neyron tarmog'ining asosiy funktsiyalari alohida neyronlar tomonidan emas, balki ular orasidagi aloqalar bilan ta'minlanadi. Bir qatlamli perseptron qatlamni tashkil etuvchi neyronlar guruhidan iborat oddiy tarmoqdir. Kirish ma'lumotlari qiymatlar vektori sifatida kodlangan, har bir element qatlamdagi har bir neyronning mos keladigan kirishiga beriladi. O'z navbatida, neyronlar chiqishni bir-biridan mustaqil ravishda hisoblab chiqadi. Chiqishning o'lchami (ya'ni elementlarning soni) neyronlar soniga teng va barcha neyronlar uchun sinapslar soni bir xil bo'lishi va kirish signalining o'lchamiga mos kelishi kerak.
Bu yerda X1,X2,X3 - kirish namunasi, Y1,Y2,Y3 - chiqish namunasi, wi,j - i-neyronning j-chi og'irligi.
Neyron tarmog'ini o'qitish - bu tarmoq o'rnatilgan muhitni simulyatsiya qilish orqali neyron tarmoq parametrlarini sozlash jarayoni. Ta'lim turi parametrlar qanday sozlanganligi bilan belgilanadi. O'qituvchi bilan va o'qituvchisiz o'rganish algoritmlari mavjud.
O’qituvchi bilan o’qitiladigan jarayoni - bu o'quv misollari namunalari tarmog'ini taqdim etish. Har bir namuna tarmoqning kirishlariga beriladi, keyin u NN strukturasi ichida qayta ishlanadi, tarmoqning chiqish signali hisoblab chiqiladi, bu tarmoqning kerakli chiqishi bo'lgan maqsadli vektorning mos keladigan qiymati bilan taqqoslanadi. Keyin, ma'lum bir qoidaga ko'ra, xato hisoblab chiqiladi va tanlangan algoritmga qarab tarmoq ichidagi ulanishlarning og'irlik koeffitsientlari o'zgaradi. O'quv to'plamining vektorlari ketma-ket taqdim etiladi, xatolar hisoblab chiqiladi va og'irliklar har bir vektor uchun butun mashg'ulot massividagi xatolik maqbul darajada past darajaga yetguncha o'rnatiladi.
O’qituvchisiz o'qitishda o'quv to'plami faqat kirish vektorlaridan iborat. O'rganish algoritmi tarmoq og'irliklarini moslashtiradi, shunday qilib izchil chiqish vektorlari olinadi, ya'ni. shunday qilib, etarlicha yaqin kirish vektorlarining taqdimoti bir xil natijalarni beradi. Shuning uchun o'quv jarayoni o'quv majmuasining statistik xususiyatlarini ajratib oladi va shunga o'xshash vektorlarni sinflarga guruhlaydi. Berilgan sinfdan vektorni kirish sifatida taqdim etish ma'lum bir chiqish vektorini beradi, ammo o'rganishdan oldin kirish vektorlarining berilgan klassi qanday chiqishni ishlab chiqarishini oldindan aytib bo'lmaydi. Shuning uchun, bunday tarmoqning natijalari o'quv jarayoni tufayli qandaydir tushunarli shaklga aylantirilishi kerak. Bu jiddiy muammo emas. Tarmoq tomonidan o'rnatilgan kirish va chiqish o'rtasidagi aloqani aniqlash odatda qiyin emas. Neyron tarmoqlarni o'qituvchisiz o'qitish uchun Hebb va Oya signallarini o'rganish usuli qo'llaniladi.
Matematik jihatdan o'quv jarayonini quyidagicha ta'riflash mumkin. Ishlash vaqtida neyron tarmoq Y = G(X) funksiyasini amalga oshiruvchi chiqish signali Y hosil qiladi. Agar tarmoq arxitekturasi berilgan bo'lsa, u holda G funktsiyasining shakli sinaptik og'irliklar va noaniq tarmoq qiymatlari bilan aniqlanadi.
Ayrim masalaning yechimi kirish-chiqish ma’lumotlar parametrlari (X1, Y1), (X2, Y2), …, (XN, YN) bilan berilgan Y = F(X) funksiya bo‘lsin, buning uchun Yk = F(Xk) ( k = 1, 2, …, N).
O'rganish ba'zi xato funksiyasi E ma'nosida F ga yaqin bo'lgan G funktsiyasini izlashdan (sintez qilishdan) iborat. Agar o'quv misollari to'plami tanlansa, juftlik (XN, YN) (bu erda k = 1, 2, ..., N) va xato funktsiyasini hisoblash usuli E , keyin neyron tarmog'ini o'rgatish juda katta o'lchamga ega bo'lgan ko'p o'lchovli optimallashtirish muammosiga aylanadi, shu bilan birga E funktsiyasi ixtiyoriy shaklga ega bo'lishi mumkinligi sababli, umumiy holatda o'rganish ko'p ekstremal qavariq bo'lmagan optimallashtirish muammosi.
Ushbu muammoni hal qilish uchun quyidagi (iterativ) algoritmlardan foydalanish mumkin:
1. Birinchi tartibli qisman hosilalarni hisoblash bilan mahalliy optimallashtirish algoritmlari:
- gradient algoritmi (eng tik tushish usuli),
- antigradient yo'nalishi bo'yicha maqsad funktsiyasini bir o'lchovli va ikki o'lchovli optimallashtirish usullari;
- konjugat gradient usuli,
- algoritmning bir necha bosqichlarida antigradient yo'nalishini hisobga oladigan usullar;
2. birinchi va ikkinchi darajali qisman hosilalarni hisoblash bilan mahalliy optimallashtirish algoritmlari:
- Nyuton usuli,
- siyrak Hessian matritsalari bilan optimallashtirish usullari;
- kvazi-Nyuton usullari;
- Gauss-Nyuton usuli;
- Levenberg-Marquardt usuli va boshqalar;
3. Stoxastik optimallashtirish algoritmlari:
- tasodifiy yo'nalishda qidirish,
- tavlanish simulyatsiyasi,
- Monte-Karlo usuli (statistik testlarning raqamli usuli);
4. global optimallashtirish algoritmlari (global optimallashtirish muammolari maqsad funktsiyasi bog'liq bo'lgan o'zgaruvchilar qiymatlarini sanash orqali hal qilinadi).
Og'irlik fazosida gradiyent tushish usuli
Gradient tushishi - bu gradient bo'ylab harakatlanish orqali funktsiyaning mahalliy ekstremumini (minimal yoki maksimal) topish usuli.
Og'irlik koeffitsientlari va egilishlar quyidagi formulalar bo'yicha hisoblanadi:
Bu yerda E - xato funksional, a - o'rganish tezligi.
Do'stlaringiz bilan baham: |