Neyron tarmoq asoslari va uni chuqur o'rganish


Удивительная эффективность функции активации ReLU



Download 3,8 Mb.
bet35/112
Sana11.06.2022
Hajmi3,8 Mb.
#655828
TuriГлава
1   ...   31   32   33   34   35   36   37   38   ...   112
Bog'liq
2 bo\'lim (2)

Удивительная эффективность функции активации ReLU
ReLU faollashtirish funktsiyasining ajoyib samaradorligi



  1. отличие от сигмоиды и tanh, функция активации ReLU не страдает от проблемы ис-чезающего градиента. Использование максимума в качестве функции активации мо-жет внести разреженность в выход слоя. Исследования показывают, что глубокие сети с блоками линейной ректификации хорошо обучаются даже без применения методов предобучения­.

  2. sigmasimon va tanhdan farqli o'laroq, ReLU faollashuvi yo'qolayotgan gradient muammosidan aziyat chekmaydi. Maksimal aktivatsiya funktsiyasidan foydalanish qatlamning chiqishiga kamlik kiritishi mumkin. Tadqiqotlar shuni ko'rsatadiki, chiziqli rektifikatsiya bloklari bo'lgan chuqur tarmoqlar, hatto tayyorgarlikdan oldingi usullardan foydalanmasdan ham yaxshi o'qitilgan.



ReLU с утечкой
ReLU kamchiligi bilan

Блоки ReLU с утечкой призваны сгладить проблему «умирающего ReLU»2. При x < 0 ReLU с утечкой не обращается в нуль, а имеет небольшой отрицательный наклон (например, порядка 0.01). При использовании этого варианта ReLU иногда удава-лось добиться успеха, но результаты не всегда стабильны. Функция определена следующим образом:


Noqonuniy ReLUlar "o'layotgan ReLU" muammosini engillashtirish uchun mo'ljallangan. X <0 uchun, oqish ReLU yo'qolmaydi, lekin kichik salbiy tomonga ega (masalan, 0.01 tartibida). Ushbu parametrdan foydalanib, ReLU ba'zan muvaffaqiyatli bo'ldi, ammo natijalar har doim ham barqaror emas.
Funktsiya quyidagicha aniqlanadi:


Функция softplus
Softplus funktsiyasi

Эта функция активации, изображенная на рис. 2.15, считается «гладким вариан-том ReLU».


Ushbu faollashtirish funktsiyasi sek. 2.15 "ReLU ning silliq versiyasi" deb hisoblanadi.
Как видим, функция softplus, определяемая уравнением f(x) = ln[1 + exp(x)], по форме похожа на ReLU. Но, в отличие от ReLU, она всюду дифференцируема, и ее производная нигде не обращается в нуль.
Ko'rib turganingizdek, f (x) = ln [1 + exp (x)] tenglama bilan aniqlangan softplus funktsiyasi ReLUga o'xshash. Ammo, ReLU-dan farqli o'laroq, u hamma joyda farqlanadi va uning hosilasi hech qaerda yo'qolmaydi.


Рис. 2.15  Сравнение функций активации ReLU и softplus

ReLU va softplus aktivatsiya funktsiyalarini taqqoslash



  1. Karpathy Li. CS231n: Convolutional Neural Networks for Visual Recognition (Course Notes) // http://cs231n.stanford.edu and http://cs231n.github.io.

76  Основы нейронных сетей и глубокого обучения

Download 3,8 Mb.

Do'stlaringiz bilan baham:
1   ...   31   32   33   34   35   36   37   38   ...   112




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish