Я. Гудфеллоу, И. Бенджио, А. Курвилль



Download 14,23 Mb.
Pdf ko'rish
bet304/779
Sana14.06.2022
Hajmi14,23 Mb.
#671946
TuriКнига
1   ...   300   301   302   303   304   305   306   307   ...   779
Bog'liq
Гудфеллоу Я , Бенджио И , Курвилль А Глубокое обучение

x
(1)
, …, 
x
(
m
)
} с соответственными 
метками 
y
(
i
)
из порождающего распределения 
p
data
, а затем вычислив для этого мини-
пакета градиент функции потерь относительно параметров:
(8.9)
Для обновления 
θ
в направлении 
g

выполняется СГС по ошибке обобщения.
Разумеется, эта интерпретация справедлива, только когда примеры не используются 
повторно. Тем не менее обычно для получения наилучших результатов стоит сделать не-
сколько проходов по обучающему набору, если только он не слишком велик. Если ис-
пользуется несколько таких периодов, то лишь в первом спуск происходит в направле-
нии несмещенного градиента ошибки обобщения, но, конечно, дополнительные периоды 
обычно дают достаточный выигрыш в плане уменьшения ошибки обучения, чтобы пере-
весить вред от увеличения разрыва между ошибкой обучения и ошибкой тестирования.
В тех случаях, когда размер набора данных растет быстрее, чем вычислительные 
ресурсы для его обработки, все чаще в машинном обучении переходят к практике, 
когда каждый обучающий пример используется ровно один раз, или даже произво-
дится неполный проход по обучающему набору. Если обучающий набор очень велик, 
то переобучение перестает быть проблемой, и на первый план выходят проблемы не-
дообучения и вычислительной эффективности. См. также работу Bottou and Bous-
quet (2008), где обсуждается влияние вычислительных узких мест на ошибку обоб-
щения при увеличении числа обучающих примеров.
8.2. Проблемы оптимизации нейронных сетей
В общем случае оптимизация – чрезвычайно трудная задача. Традиционно в машин-
ном обучении избегали сложностей общей оптимизации за счет тщательного выбора 
целевой функции и ограничений, гарантирующих выпуклость задачи оптимизации. 
При обучении нейронных сетей приходится сталкиваться с общим невыпуклым слу-
чаем. Но даже выпуклая оптимизация не обходится без осложнений. В этом разделе 
мы дадим обзор нескольких наиболее заметных проблем оптимизации, возникающих 
в процессе обучения глубоких моделей.

Download 14,23 Mb.

Do'stlaringiz bilan baham:
1   ...   300   301   302   303   304   305   306   307   ...   779




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish