Faollashtirish funktsiyasi
Faollashtirish funktsiyasi - bu kirish ma'lumotlarini normallashtirish usuli (biz bu haqda avvalroq gaplashdik). Ya'ni, agar sizda kirishda katta raqam bo'lsa, uni faollashtirish funksiyasidan o'tib, kerakli diapazonda chiqishni olasiz. Ko'p faollashtirish funktsiyalari mavjud, shuning uchun biz eng asosiylarini ko'rib chiqamiz: Lineer, Sigmoid (Logistik) va Giperbolik tangens. Ularning asosiy farqi qiymatlar oralig'ida.
Chiziqli funksiya
Bu funksiya deyarli ishlatilmaydi, faqat neyron tarmoqni sinab ko'rish yoki qiymatni o'zgartirmasdan uzatish kerak bo'lganda.
Sigmasimon
Bu eng keng tarqalgan faollashtirish funktsiyasi va uning qiymatlari diapazoni. Aynan u Internetdagi misollarning aksariyati ko'rsatilgan, uni ba'zan logistik funktsiya deb ham atashadi. Shunga ko'ra, agar sizning holatingizda salbiy qiymatlar mavjud bo'lsa (masalan, aktsiyalar nafaqat yuqoriga, balki pastga ham tushishi mumkin), unda sizga salbiy qiymatlarni ham qamrab oladigan funktsiya kerak bo'ladi.
Giperbolik tangens
Giperbolik tangensni faqat sizning qiymatlaringiz salbiy va ijobiy bo'lishi mumkin bo'lganda ishlatish mantiqan to'g'ri keladi, chunki funktsiya diapazoni [-1,1]. Ushbu funktsiyadan faqat ijobiy qiymatlar bilan foydalanish noo'rin, chunki bu sizning neyron tarmog'ingiz natijalarini sezilarli darajada yomonlashtiradi.
Trening to'plami
Trening to'plami - bu neyron tarmoq ishlaydigan ma'lumotlar ketma-ketligi. Bizning holatda, istisno yoki (xor) bizda faqat 4 xil natijaga ega bo'lamiz, ya'ni bizda 4 ta o'quv to'plami bo'ladi: 0xor0 = 0, 0xor1 = 1, 1xor0 = 1.1xor1 = 0.
Takrorlash
Bu neyron tarmoq bitta o'quv majmuasidan o'tganda har safar ko'payadigan hisoblagichning bir turi. Boshqacha qilib aytganda, bu neyron tarmog'i orqali o'tgan o'quv majmualarining umumiy soni.
Самый опасный продукт из холодильника
M24
Трамп высказался о России так, как никогда раньше не говорил
M24
Davr
Neyron tarmoqni ishga tushirishda bu qiymat 0 ga o'rnatiladi va qo'lda o'rnatilgan shiftga ega. Davr qanchalik katta bo'lsa, tarmoq shunchalik yaxshi o'qitiladi va shunga mos ravishda uning natijasi. Har safar o'quv to'plamlarining to'liq to'plamini, bizning holatlarimizda 4 to'plam yoki 4 iteratsiyadan o'tganimizda davr ortadi.
Muhim iteratsiyani davr bilan aralashtirmang va ularning o'sishi ketma-ketligini tushuning. Birinchi n
bir marta iteratsiya ortadi, keyin esa davr va aksincha emas. Boshqacha qilib aytadigan bo'lsak, siz neyron tarmoqni faqat bitta to'plamda, keyin boshqasida va hokazolarda o'rgata olmaysiz. Har bir to'plamni har bir davrda bir marta mashq qilishingiz kerak. Shunday qilib, siz hisob-kitoblarda xatolardan qochishingiz mumkin.
Xato
Xato - kutilgan va qabul qilingan javoblar o'rtasidagi tafovutni ifodalovchi foiz. Xato har bir davrda shakllanadi va kamayishi kerak. Agar bu sodir bo'lmasa, siz noto'g'ri ish qilyapsiz. Xatoni turli yo'llar bilan hisoblash mumkin, ammo biz faqat uchta asosiy usulni ko'rib chiqamiz: O'rtacha kvadrat xato (bundan buyon matnda MSE), Root MSE va Arctan. Bu erda faollashtirish funktsiyasida bo'lgani kabi foydalanishda hech qanday cheklovlar yo'q va siz o'zingizga olib keladigan har qanday usulni tanlashingiz mumkin. eng yaxshi natija... Faqat shuni hisobga olish kerakki, har bir usul xatolarni turli yo'llar bilan hisoblaydi. Arktanda xato deyarli har doim kattaroq bo'ladi, chunki u printsipga muvofiq ishlaydi: farq qanchalik katta bo'lsa, xato shunchalik katta bo'ladi. Root MSE eng kichik xatolikka ega bo'ladi, shuning uchun ko'pincha MSE ishlatiladi, bu xatoni hisoblashda muvozanatni saqlaydi.
Do'stlaringiz bilan baham: |