512
Преодоление трудностей, связанных со статической суммой
возможное объяснение снов у человека и других животных (Crick and Mitchison, 1983).
Идея в том, что мозг хранит вероятностную модель мира и следует в направлении гра-
диента log
p
~, сталкиваясь с реальными событиями в состоянии бодрствования, и в на-
правлении отрицательного градиента log
p
~, стремясь минимизировать log
Z
, когда спит
и сталкивается с событиями, выбранными из текущей модели. Такой взгляд на вещи
объясняет терминологию, используемую при описании алгоритмов с положитель-
ной и отрицательной фазами, но его правильность не доказана нейробиологическими
экспериментами. В моделях машинного обучения обычно необходимо использовать
положительную и отрицательную фазы одновременно, а не в раздельные периоды
бодрствования и фазы быстрого сна. В разделе 19.5 мы увидим, что другие алгорит-
мы машинного обучения выбирают примеры из модельного распределения для других
целей и что такие алгоритмы также могли бы дать объяснение функции сновидений.
При таком понимании роли положительной и отрицательной фаз обучения мы мо-
жем попытаться спроектировать более дешевую альтернативу алгоритма 18.1. Основ-
ная часть стоимости наивного алгоритма MCMC – стоимость приработки случайным
образом инициализированных марковских цепей на каждом шаге. Естественное ре-
шение – инициализировать цепь, воспользовавшись распределением, очень близким
к модельному, тогда приработка займет меньше времени.
Алгоритм
сопоставительного расхождения
(contrastive divergence) (CD, или CD-
k, чтобы показать, что это алгоритм CD с
k
шагами выборки по Гиббсу) инициализи-
рует марковскую цепь на каждом шаге примерами, выбранными из распределения
данных (Hinton, 2000, 2010). Эта идея представлена в алгоритме 18.2. Получение при-
меров из распределения данных ничего не стоит, потому что они уже присутствуют
в наборе данных. Первоначально распределение данных сильно отличается от мо-
дельного, поэтому отрицательная фаза не очень точна. Но, к счастью, положительная
фаза все-таки может верно увеличивать вероятность данных в модели. Если дать по-
ложительной фазе поработать некоторое время, то модельное распределение окажет-
ся ближе к распределению данных, и верность негативной фазы начнет расти.
Алгоритм 18.2.
Алгоритм сопоставительного расхождения, в котором в качестве
процедуры оптимизации используется градиентное восхождение
Установить размер шага
ε
равным малому положительному числу.
Установить число шагов выборки по Гиббсу
k
достаточно большим для того, что-
бы выборка по схеме марковской цепи из
p
(
Do'stlaringiz bilan baham: |