Я. Гудфеллоу, И. Бенджио, А. Курвилль



Download 14,23 Mb.
Pdf ko'rish
bet724/779
Sana14.06.2022
Hajmi14,23 Mb.
#671946
TuriКнига
1   ...   720   721   722   723   724   725   726   727   ...   779
Bog'liq
Гудфеллоу Я , Бенджио И , Курвилль А Глубокое обучение

x

θ
) и 
σ
= g(
x

θ
). В этом пополненном графе мы 
можем воспользоваться обратным распространением через эти функции для вычис-
ления 

θ
J
(
y
).
Принцип, использованный в этом примере выборки из нормального распределе-
ния, применим и в более общей ситуации. Мы можем выразить любое распределение 
вероятности вида 
p
(y; 
θ
) или 
p
(y | 
x

θ
) как 
p
(y | 
ω
), где 
ω
– переменная, содержащая 
как параметры 
θ
, так и (если это осмыслено) входы 
x
. Зная значение 
y
, выбранное из 
распределения 
p
(y | 
ω
), где 
ω
может, в свою очередь, быть функцией от других пере-
менных, мы можем переписать
y

p
(
y

ω

(20.56)
в виде
y

f
(
z

ω
), 
(20.57)
где 
z
– источник случайности. Затем можно вычислить производные 
y
по 
ω
с по-
мощью традиционных средств, например алгоритма обратного распространения 
в применении к 
f
в предположении, что 
f
непрерывна и дифференцируема почти 
всюду. Важно, что 
ω
не должна быть функцией 
z
, а 
z
не должна быть функцией 
ω
. Эту 
технику часто называют 
перепараметризацией

стохастическим обратным распро-
странением
или 
методом малых возмущений
.
Из требования о непрерывности и дифференцируемости 
f
, конечно, вытекает, что 
y
должна быть непрерывна. Если мы хотим выполнять обратное распространение через 
процесс выборки, порождающий дискретные примеры, то все же возможно оценить 
градиент по 
ω
, применяя алгоритмы обучения с подкреплением, например варианты 
алгоритма REINFORCE (Williams, 1992), который обсуждается в разделе 20.9.1.


Обратное распространение через случайные операции 

577
В приложениях нейронных сетей мы обычно выбираем 
z
из какого-нибудь просто-
го распределения, например равномерного или нормального, а чтобы получить более 
сложные распределения, разрешаем детерминированной части сети изменять форму 
входа.
Идея распространения градиентов или оптимизации посредством стохастических 
операций восходит еще к середине XX столетия (Price, 1958; Bonnet, 1964) и впер-
вые была применена к машинному обучению в контексте обучения с подкреплением 
(Williams, 1992). В более близкое к нам время она применялась к вариационным ап-
проксимациям (Opper and Archambeau, 2009) и к стохастическим и порождающим 
нейронным сетям (Bengio et al., 2013b; Kingma, 2013; Kingma and Welling, 2014b,a; 
Rezende et al., 2014; Goodfellow et al., 2014c). Многие сети, в т. ч. шумоподавляющие 
автокодировщики и сети, регуляризируемые методом прореживания, также естест-
венно проектируются для приема шума на входе, не требуя специальной перепара-
метризации, для того чтобы сделать шум независимым от модели.

Download 14,23 Mb.

Do'stlaringiz bilan baham:
1   ...   720   721   722   723   724   725   726   727   ...   779




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish