Я. Гудфеллоу, И. Бенджио, А. Курвилль



Download 14,23 Mb.
Pdf ko'rish
bet323/779
Sana14.06.2022
Hajmi14,23 Mb.
#671946
TuriКнига
1   ...   319   320   321   322   323   324   325   326   ...   779
Bog'liq
Гудфеллоу Я , Бенджио И , Курвилль А Глубокое обучение

258 

 
Оптимизация в обучении глубоких моделей
продолжал вызывать движение до достижения минимума, и достаточна сильна, что-
бы предотвратить движение, не оправдываемое градиентом.
8.3.3. Метод Нестерова
В работе Sutskever et al. (2013) описан вариант импульсного алгоритма, созданный 
под влиянием метода ускоренного градиента Нестерова (Nesterov, 1983, 2004). Пра-
вила обновления в этом случае имеют вид:
(8.21)
θ

θ

v
,
(8.22)
Алгоритм 8.3.
Стохастический градиентный спуск (СГС) методом Нестерова
Require:
скорость обучения 
ε
, параметр импульса 
α
Require:
начальные значения параметров 
θ
, начальная скорость 
v
while
критерий остановки не выполнен 
do
Выбрать из обучающего набора мини-пакет 
m
примеров {
x
(1)
, …, 
x
(
m
)
} и соот-
ветствующие им метки 
y
(
i
)
.
Выполнить промежуточное обновление: 
θ
~

θ

α
v
Вычислить градиент (в промежуточной точке): 
g

(1/
m
)

θ
~
Σ
i
L
(
f
(
x
(
i
)

θ
~
), 
y
(
i
)
).
Вычислить обновление скорости: 
v
← 
α
v
– 
ε
g
Применить обновление: 
θ

θ

v
.
end while
где параметры 
α
и 
ε
играют ту же роль, что в стандартном импульсном методе. Раз-
ница между методом Нестерова и стандартным импульсным методом заключается 
в точке, где вычисляется градиент. В методе Нестерова градиент вычисляется после 
применения текущей скорости. Таким образом, метод Нестерова можно интерпрети-
ровать как попытку добавить поправочный множитель к стандартному импульсному 
методу. Полностью метод Нестерова представлен в алгоритме 8.3.
В случае выпуклой оптимизации пакетным градиентным спуском метод Нестеро-
ва повышает скорость сходимости ошибки превышения с 
O
(1/
k
) (после 
k
шагов) до
O
(1/
k
2
), как доказано в работе Nesterov (1983). К сожалению, в случае стохастическо-
го градиентного спуска метод Нестерова не улучшает скорости сходимости.
8.4. Стратегии инициализации параметров
Некоторые алгоритмы оптимизации по природе своей не итеративные, они просто 
решают уравнение. Другие алгоритмы хоть и итеративные, но в применении к под-
ходящему классу задач оптимизации сходятся к приемлемому решению за приемле-
мое время вне зависимости от начальных значений. Алгоритмы глубокого обучения 
обычно не обладают столь приятными свойствами. Как правило, они итеративные, 
и потому пользователь должен указать, с какой точки начинать итерации. Кроме 
того, обучение глубоких моделей – задача настолько сложная, что большинство ал-
горитмов сильно зависит от выбора начальных значений. От начальной точки мо-
жет зависеть, сойдется ли вообще алгоритм, причем некоторые начальные точки так 


Стратегии инициализации параметров 

259
неустойчивы, что алгоритм сталкивается с численными трудностями и завершается 
ошибкой. Если все-таки алгоритм сходится, то начальная точка определяет скорость 
сходимости и стоимость в конечной точке – высокую или низкую. Кроме того, для то-
чек с сопоставимой стоимостью ошибка обобщения может различаться очень сильно, 
и на нее начальная точка тоже может оказывать влияние.
Современные стратегии инициализации просты и основаны на эвристических со-
ображениях. Проектирование улучшенной стратегии инициализации – трудная зада-
ча, потому что еще нет отчетливого понимания оптимизации нейронных сетей. Боль-
шинство стратегий основано на стремлении получить некоторые полезные свойства 
сети в начальный момент. Однако мы плохо понимаем, какие из этих свойств и при 
каких условиях сохраняются после начала процесса обучения. Дополнительная труд-
ность состоит в том, что некоторые начальные точки хороши с точки зрения оптими-
зации, но никуда не годятся с точки зрения обобщаемости. Наше понимание того, как 
начальная точка влияет на обобщаемость, совсем уж примитивно, оно не дает почти 
или вообще никаких указаний на то, как выбирать начальную точку.
Пожалуй, единственное, что мы знаем наверняка, – это то, что начальные парамет-
ры должны «нарушить симметрию» между разными блоками. Если два скрытых бло-
ка с одинаковыми функциями активации соединены с одними и теми же входами, то 
у этих блоков должны быть разные начальные параметры. Если начальные параметры 
одинаковы, то детерминированный алгоритм обучения, применяемый к детерминиро-
ванной функции стоимости и модели, будет всякий раз обновлять эти блоки одинаково. 
Даже если модель или алгоритм обучения способны стохастически вычислять разные 
обновления разных блоков (например, если при обучении используется прорежива-
ние), обычно предпочтительнее инициализировать каждый блок, так чтобы он вычис-
лял свою функцию иначе, чем все остальные блоки. Это позволит гарантировать, что 
никакие входные паттерны не потеряются в нуль-пространстве прямого распростра-
нения, и никакие паттерны градиентов не потеряются в нуль-пространстве обратного 
распространения. Стремление к тому, чтобы все блоки вычисляли разные функции, 
диктует выбор в пользу случайной инициализации параметров. Мы могли бы провес-
ти явный поиск в большом множестве взаимно различных базисных функций, но это 
зачастую дорого обходится с точки зрения вычислений. Например, если число выходов 
не превышает число входов, то можно было бы воспользоваться ортогонализацией Гра-
ма–Шмидта матрицы начальных весов и тем самым гарантировать, что все блоки будут 
вычислять очень сильно различающиеся функции. Случайная инициализация на осно-
ве распределения с высокой энтропией в многомерном пространстве вычислительно 
дешевле, а вероятность назначить двум блокам одинаковую функцию крайне мала.
В типичном случае мы выбираем в качестве смещений блоков эвристически 
выбран ные константы, а случайно инициализируем только веса. Дополнительные 
параметры, например условная дисперсия предсказания, обычно тоже задаются эв-
ристическими константами.
Почти всегда веса модели инициализируются случайными значениями с нормаль-
ным или равномерным распределением. Вопрос о том, какое распределение лучше, 
похоже, не играет особой роли, но тщательно он не изучался. А вот масштаб началь-
ного распределения сильно влияет как на результат процедуры оптимизации, так и на 
способность сети к обобщению.
Чем больше начальные веса, тем сильнее эффект нарушения симметрии, что по-
могает избежать избыточных блоков. Большие начальные веса помогают также пре-



Download 14,23 Mb.

Do'stlaringiz bilan baham:
1   ...   319   320   321   322   323   324   325   326   ...   779




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish