Я. Гудфеллоу, И. Бенджио, А. Курвилль


нейронной машины Тьюринга



Download 14,23 Mb.
Pdf ko'rish
bet440/779
Sana14.06.2022
Hajmi14,23 Mb.
#671946
TuriКнига
1   ...   436   437   438   439   440   441   442   443   ...   779
Bog'liq
Гудфеллоу Я , Бенджио И , Курвилль А Глубокое обучение

нейронной машины Тьюринга


352 

 
Моделирование последовательностей: рекуррентные и рекурсивные сети
(НМТ), способной обучиться чтению и записи произвольного содержимого в ячейки 
памяти без явных указаний со стороны учителя о том, какие действия предприни-
мать. Там же описан сквозной процесс обучения без сигнала от учителя посредством 
механизма мягкого внимания, основанного на содержимом (см. Bahdanau et al.[2015] 
и раздел 12.4.5.1). Этот механизм мягкой адресации стал стандартом и в других род-
ственных архитектурах, он позволяет эмулировать алгоритмические механизмы, не 
отказываясь от градиентной оптимизации (Sukhbaatar et al., 2015; Joulin and Mikolov, 
2015; Kumar et al., 2015; Vinyals et al., 2015a; Grefenstette et al., 2015).
Каждую ячейку памяти можно рассматривать как обобщение ячеек памяти в LSTM 
и GRU. Разница в том, что на выходе сети будет внутреннее состояние, которое вы-
бирает, какую ячейку читать или записывать, точно так же, как при доступе к памяти 
компьютера задается адрес, по которому производить чтение или запись.
Трудно оптимизировать функции, порождающие точные целочисленные адре-
са. Чтобы как-то решить эту проблему, НМТ на самом деле читает и пишет сразу 
в несколько ячеек памяти. Результатом чтения является взвешенное среднее многих 
ячеек. А в процессе записи значения нескольких ячеек изменяются на разную вели-
чину. Коэффициенты для этих операций подбираются так, чтобы сфокусироваться 
на небольшом числе ячеек, например с применением функции softmax. Использова-
ние этих весов с ненулевыми производными позволяет применить метод градиент-
ного спуска для оптимизации функций, управляющих доступом к памяти. Градиент 
по этим коэффициентам указывает, нужно ли их увеличить или уменьшить, но, как 
правило, градиент будет большим только для адресов памяти, получивших большой 
коэффициент.
Ячейки памяти обычно дополняются возможностью хранить вектор, а не только 
одиночный скаляр, как в ячейках LSTM или GRU. Есть две причины для увеличения 
размера ячейки памяти. Первая состоит в том, что мы увеличили стоимость доступа 
к ячейке. Мы платим за порождение коэффициента для многих ячеек, но ожидаем, 
что эти коэффициенты кластеризуются вокруг небольшого числа ячеек. Читая век-
торное, а не скалярное значение, мы амортизируем часть стоимости. Другая причи-
на – то, что векторнозначные ячейки памяти допускают 

Download 14,23 Mb.

Do'stlaringiz bilan baham:
1   ...   436   437   438   439   440   441   442   443   ...   779




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish