Neyron tarmoq asoslari va uni chuqur o'rganish


Отнесение к нескольким классам



Download 3,8 Mb.
bet34/112
Sana11.06.2022
Hajmi3,8 Mb.
#655828
TuriГлава
1   ...   30   31   32   33   34   35   36   37   ...   112
Bog'liq
2 bo\'lim (2)

Отнесение к нескольким классам
Ko’pgina sinflarni tasniflash

Если мы хотим отнести пример к нескольким классам (например, «человек + автомобиль»), то выходной слой с функцией softmax не подойдет. Вместо этого следует взять слой с сигмо-идной функцией активации, которая дает независимые вероятности каждого класса.


Agar biz misolni bir nechta sinflarga berishni istasak (masalan, "man + car"), unda softmax funktsiyasi bilan chiqish qatlami ishlamaydi. Buning o'rniga sigmasimon faollashtirish funktsiyasi bo'lgan qatlamni olish kerak, bu esa har bir sinf uchun mustaqil ehtimollik beradi.



  1. случае, когда меток много (порядка нескольких тысяч), следует использовать иерархическую функцию активации softmax. Она располагает метки в узлах древо-видной структуры, и в каждом узле обучается softmax-классификатор, определяю­ щий, какую ветвь выбрать на следующем шаге.

  2. Agar yorliqlar ko'p bo'lsa (bir necha mingga teng), ierarxik softmax faollashtirish funktsiyasidan foydalaning. Daraxt tuzilishi tugunlariga yorliqlar qo'yiladi va har bir tugunda softmax klassifikatori o'qitiladi, bu esa keyingi bosqichda qaysi filialni tanlashni aniqlaydi.



Линейная ректификация
Chiziqli rektifikatsiya

Функция линейной ректификации активирует блок, только если входной сигнал больше заданной величины. Функция описывается формулой f(x) = max(0, x), ее график показан на рис. 2.14.


Chiziqli rektifikatsiya funktsiyasi kirish signallari belgilangan qiymatdan katta bo'lsa, blokni faollashtiradi. Funktsiya f (x) = max (0, x) formula bilan tavsiflanadi, uning grafigi sek. 2.14.


Рис. 2.14  Функция линейной ректификации
Chiziqli rektifikatsiya funktsiyasi

Блоки линейной ректификации (ReLU) находят широкое применение в совре-менных глубоких сетях, поскольку хорошо работают во многих ситуациях. Так как производная ReLU равна нулю или константе, эта функция позволяет справиться





  1. проблемой исчезающего и взрывного градиента. На практике сети с функцией активации ReLU обучаются лучше, чем сети с сигмоидными функциями актива-ции.

Chiziqni to'g'rilash moslamalari (ReLU) zamonaviy chuqur tarmoqlarda keng qo'llaniladi, chunki ular ko'plab vaziyatlarda yaxshi ishlaydi. ReLU hosilasi nolga yoki doimiyga teng bo'lganligi sababli, bu funktsiya yo'qolayotgan va portlovchi gradyan muammosini engishga imkon beradi. Amalda, ReLU faollashtirish funktsiyasi bo'lgan tarmoqlar sigmasimon faollashtirish funktsiyalariga ega tarmoqlarga qaraganda yaxshiroq o'rganishadi.


Функции активации  75

Download 3,8 Mb.

Do'stlaringiz bilan baham:
1   ...   30   31   32   33   34   35   36   37   ...   112




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish