Я. Гудфеллоу, И. Бенджио, А. Курвилль



Download 14,23 Mb.
Pdf ko'rish
bet276/779
Sana14.06.2022
Hajmi14,23 Mb.
#671946
TuriКнига
1   ...   272   273   274   275   276   277   278   279   ...   779
Bog'liq
Гудфеллоу Я , Бенджио И , Курвилль А Глубокое обучение

разделением параметров
, поскольку мы считаем, что 
разные модели или компоненты моделей разделяют некоторое общее множество 
параметров. Важным преимуществом разделения параметров над регуляризацией 
с целью обеспечения близости (посредством штрафа по норме) является тот факт, 
что в памяти нужно хранить только подмножество всех параметров (общее множе-
ство). В некоторых моделях, например в сверточных нейронных сетях, это помогает 
существенно уменьшить потребность модели в памяти.
7.9.1. Сверточные нейронные сети
Конечно, самое популярное и важное применение идея разделения параметров на-
ходит в 
сверточных нейронных сетях
(СНС) в компьютерном зрении.
У естественных изображений есть много статистических свойств, инвариант-
ных к параллельному переносу. Например, фотография кошки остается таковой, 
если сдвинуть ее на один пиксель вправо. В СНС это свойство учитывается с по-
мощью разделения параметров по нескольким областям изображения. Один и тот 
же признак (скрытый блок с одинаковыми весами) вычисляется по нескольким 
участкам входных данных. Это означает, что один и тот же детектор кошек найдет 
кошку вне зависимости от того, находится она в столбце изображения с номером 
i
или 
i
+ 1.
Разделение параметров дает СНС возможность значительно уменьшить число 
уникальных параметров модели и увеличить размер сети, не требуя соответствен-
ного увеличения объема обучающих данных. Это по сей день остается одним из луч-
ших примеров эффективного включения знаний о предметной области в архитекту-
ру сети.
Более подробно СНС рассматриваются в главе 9.
7.10. Разреженные представления
Снижение весов работает благодаря штрафованию непосредственно параметров 
модели. Другая стратегия – штрафовать за активацию блоков нейронной сети, 
стремясь к разреженности активаций. Это налагает косвенный штраф на парамет-
ры модели.
Мы уже обсуждали (см. раздел 7.1.2), что штраф по норме 
L
1
ведет к разреженной 
параметризации, т. е. многие параметры обращаются в 0 (или оказываются близки 
к 0). С другой стороны, под разреженным понимается такое представление, многие 
элементы которого равны 0 (или близки к 0). Упрощенно это различие можно про-
иллюстрировать на примере линейной регрессии:


Разреженные представления 

221
(7.46)
(7.47)
В первом случае мы имеем пример модели линейной регрессии с разреженной па-
раметризацией, а во втором – линейную регрессию с разреженным представлением 

Download 14,23 Mb.

Do'stlaringiz bilan baham:
1   ...   272   273   274   275   276   277   278   279   ...   779




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish