Neyron tarmoq asoslari va uni chuqur o'rganish


Архитектура рекуррентных нейронных сетей и временные шаги



Download 3,8 Mb.
bet102/112
Sana11.06.2022
Hajmi3,8 Mb.
#655828
TuriГлава
1   ...   98   99   100   101   102   103   104   105   ...   112
Bog'liq
2 bo\'lim (2)

Архитектура рекуррентных нейронных сетей и временные шаги

На каждом временном шаге распространения информации по рекуррентной сети блоки, в которые входные данные поступают через рекуррентные связи, получа-ют активации от текущего входного вектора и от скрытых блоков в предыдущем состоянии сети.


Выход вычисляется по скрытому состоянию на данном временном шаге.Преды-дущий входной вектор на предыдущем временном шаге может оказывать влияние натекущий выход натекущем временном шаге посредством рекуррентных связей.


Мы можем сцеплять эти специализированные рекуррентные нейроны для по-строения лучших моделей. Выход предыдущего слоя соединяется с входом сле­ дующего слоя так же, как в многослойных сетях прямого распространения.




Проблема исчезающего градиента
Известно, что РНС страдают от «проблемы исчезающего градиента». Эта проблема возникает, когда градиент становится слишком мал, и затрудняет моделирование долгосрочных зависимостей (10 и более шагов) во входном наборе данных. Самый эффективный способ борьбы с ней – использовать LSTM-вариант архитектуры РНС, поддерживаемый библиотекой DL4J.
LSTM-сети

LSTM-сети – наиболее распространенный вариант рекуррентных нейронных се-тей. Они были изобретены в 1997 году Хохрайтером и Шмидбауэром37.


Важнейшие элементы LSTM38 – ячейка памяти и вентили (включая вентиль за-бывания39, а также входной вентиль). Содержимое ячейки памяти модулируется входным вентилем и вентилем забывания40. Если оба вентиля закрыты, то содер-жимое ячейки остается неизменным при переходе от предыдущего временного шага к следующему. Вентильная структура позволяет сохранять информацию на протяжении многих временных шагов, а следовательно, обеспечивает течение градиентов во времени. Это позволяет LSTM-модели преодолевать проблему ис-чезающего градиента, терзающую другие виды рекуррентных нейронных сетей.


37 Hochreiter and Schmidhuber, 1997. Long short-term memory // http://www.bioinf.jku.at/ publications/older/2604.pdf.



  1. Graves, 2012. Supervised Sequence Labelling with Recurrent Neural Networks // http://www. cs.toronto.edu/~graves/preprint.pdf.

  2. Gers, Schmidhuber and Cummins, 1999. Learning to Forget: Continual Prediction with LSTM // http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.55.5709&rep=rep1&type=pdf.

  3. Graves, 2012. Supervised Sequence Labelling with Recurrent Neural Networks // http://www. cs.toronto.edu/~graves/preprint.pdf.

Рекуррентные нейронные сети 137

Download 3,8 Mb.

Do'stlaringiz bilan baham:
1   ...   98   99   100   101   102   103   104   105   ...   112




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish