JavaScript для глубокого обучения 2021 TensorFlow js Ббк



Download 30,75 Mb.
Pdf ko'rish
bet372/457
Sana27.03.2022
Hajmi30,75 Mb.
#513488
1   ...   368   369   370   371   372   373   374   375   ...   457
Bog'liq
Цэй Ш., Байлесчи С., и др. - JаvaScript для глубокого обучения (Библиотека программиста) - 2021


Часть III • Продвинутые возможности глубокого обучения с TensorFlow.js
Аналогично наилучший исход для состояния 
s
3
— при действии 
a
1
, что дает воз­
награждение –4. Следовательно, если выполнить в состоянии 
s
1
действие 
a
2
, макси­
мальное дисконтированное вознаграждение будет:
Максимальное вознаграждение
при действии 
a
2
из состояния 
s
1
= немедленное вознаграждение + дисконтиро­
ванное будущее вознаграждение =
= 3 + 
γ

–4 =
= 3 + 0,9 

–4 =
= 0,6
Рис. 11.10.
Очень простой конкретный пример марковского процесса принятия решений (MDP). 
Состояния изображены в виде серых кругов с метками 
s
n
, а действия — серых кругов с метками 
a
m

Вознаграждения, соответствующие вызванным действиями переходам из состояния в состояние, 
обозначены 
r = x
Вычисленные нами дисконтированные вознаграждения — примеры так называ­
емых 
Q-значений
(Q­values). Q­значение — это ожидаемое совокупное вознаграж­
дение (с учетом дисконтирования) для действия в заданном состоянии. Из этих 
Q­значений ясно, что в состоянии 
s
1
действие 
a
1
лучше, чем 
a
2
, — умозаключение, 
отличное от того, к которому мы пришли на основе величин одних немедленных 
вознаграждений при первом действии. В упражнении 3 в конце главы у вас будет 
возможность поупражняться в вычислении Q­значений в более реалистичных сце­
нариях MDP, в которых присутствует стохастичность.


Глава 11. Основы глубокого обучения с подкреплением
453
Приведенный пример хода рассуждений может показаться тривиальным. Но из 
него следует абстракция, играющая ключевую роль в Q­обучении. Q­значение, 
обозначаемое 
Q
(
s,
a
), представляет собой функцию текущего состояния (
s
) и дей­
ствия (
a
). Другими словами, функция 
Q
(
s,
a
) ставит паре «состояние — действие» 
в соответствие оценку величины вознаграждения от выполнения данного действия 
в данном состоянии. Эта величина лишь перспективная, поскольку учитывает ма­
ксимально возможные будущие вознаграждения, в допущении, что на всех будущих 
шагах будут производиться оптимальные действия.
Благодаря этому для выбора оптимального действия в любом конкретном состоя­
нии нам достаточно величины 
Q
(
s,
a
). В частности, при известной 
Q
(
s,
a
) оптималь­
ным будет действие с максимальным Q­значением среди всех возможных действий:
значение 
a
, при котором достигается максимум
из 
Q
(
s
i

s
1
), 
Q
(
s
i

a
2
)... 
Q
(
s
i

a
N
),
(11.2)
где 
N
— число всех возможных действий. При наличии хорошей оценки 
Q(s, a)
можно просто следовать на каждом шаге этому процессу принятия решений и гаран­
тированно получить максимально возможное совокупное вознаграждение. Таким 
образом, задача RL поиска оптимального процесса принятия решений сводится 
к поиску путем обучения функции 
Q
(
s,
a
). Отсюда и название алгоритма обучения: 
Q­обучение.
Давайте на минуту отвлечемся и посмотрим, чем Q­обучение отличается от ме­
тода градиентного спуска по стратегиям, который мы использовали в задаче удер­
жания шеста на тележке в равновесии. В градиентном спуске по стратегиям идея 
заключалась в предсказании наилучшего действия из возможных; а в Q­обучении — 
в предсказании значений ценности для всех возможных действий. И если гради­
енты по стратегиям непосредственно указывают, какое действие следует выбрать, 
Q­обучение идет слегка окольным путем и требует дополнительного шага «выбрать 
максимальное значение». Этот окольный путь позволяет проще установить связь 
между вознаграждениями и значениями ценности для последующих шагов, облегчая 
тем самым обучение в задачах с разреженными положительными вознаграждениями, 
наподобие задачи змейки.
Так какова же связь между вознаграждениями и значениями ценности для по­
следующих шагов? Мы уже видели эту связь мельком, когда решали простую задачу 
MDP на рис. 11.10. Математически ее можно выразить следующим образом:
Q
(
s
i

a
) = 
r

γ

[максимальное значение
из 
Q
(
s
след

a
1
), 
Q
(
s
след

a
2
)... 
Q
(
s
след

a
N
)],
(11.3)
где 
s
след
— состояние, в которое мы попадем, если выберем в состоянии 
s
i
действие 
a

Приведенное уравнение, известное под названием 
уравнения Беллмана
1
, описывает 

Сформулировано американским прикладным математиком Ричардом Э. Беллманом 
(1920–1984). См. его книгу Dynamic Programming, Princeton University Press, 1957. 
(
Беллман Р. Э.
Динамическое программирование. — М.: Изд­во иностр. литературы, 1960.)


454
Download 30,75 Mb.

Do'stlaringiz bilan baham:
1   ...   368   369   370   371   372   373   374   375   ...   457




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish