Я. Гудфеллоу, И. Бенджио, А. Курвилль


(a) (b) (c) Рис. 10.13



Download 14,23 Mb.
Pdf ko'rish
bet420/779
Sana14.06.2022
Hajmi14,23 Mb.
#671946
TuriКнига
1   ...   416   417   418   419   420   421   422   423   ...   779
Bog'liq
Гудфеллоу Я , Бенджио И , Курвилль А Глубокое обучение

337
(a)
(b)
(c)
Рис. 10.13 

Рекуррентную нейронную сеть можно сделать глубокой раз-
ными способами (Pascanu et al., 2014a). (
a
) Скрытое рекуррентное состоя-
ние можно разделить на иерархически организованные группы. (
b
) Между 
входом и скрытым состоянием, между двумя скрытыми уровнями скрытого 
состояния и между скрытым состоянием и выходом можно поместить более 
глубокое вычисление (например, МСП). Это может удлинить кратчайший 
путь, соединяющий разные временные шаги. (
c
) Эффект удлинения пути 
можно сгладить путем добавления прямых связей
10.6. Рекурсивные нейронные сети
Рекурсивные нейронные сети
1
– еще один вид обобщения рекуррентных сетей, для 
которого характерен граф вычислений, структурированный как глубокое дерево, а не 
как цепная структура, присущая РНС. Типичный граф вычислений для рекурсивной 
сети показан на рис. 10.14. Рекурсивные нейронные сети были введены в работе Pollack 
(1990), а их потенциальное применение к обучению рассуждениям описано в работе 
Bottou (2011). Рекурсивные сети успешно применялись для обработки структур дан-
ных, используемых в качестве входа нейронной сети (Frasconi et al., 1997, 1998), в об-
работке естественных языков (Socher et al., 2011a,c, 2013a) и в компью терном зрении 
(Socher et al., 2011b).
Одно очевидное преимущество рекурсивных сетей по сравнению с рекуррентны-
ми – тот факт, что для последовательности одной и той же длины 
τ
глубину (изме-
ренную как количество композиций нелинейных операций) можно резко снизить с 
τ
до 
O
(log 
τ
), это может оказаться весьма полезно при работе с долгосрочными зависи-
мостями. Открытый вопрос – как лучше всего структурировать дерево. Один из ва-
риантов – выбрать структуру, не зависящую от данных, например сбалансированное 
1
Мы не употребляем аббревиатуру РНС для рекурсивных нейронных сетей во избежание 
путаницы с рекуррентными нейронными сетями.



Download 14,23 Mb.

Do'stlaringiz bilan baham:
1   ...   416   417   418   419   420   421   422   423   ...   779




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish