Я. Гудфеллоу, И. Бенджио, А. Курвилль


Чтобы подойти к крайнему случаю произвольно высокой емкости, введем понятие  непараметрической



Download 14,23 Mb.
Pdf ko'rish
bet131/779
Sana14.06.2022
Hajmi14,23 Mb.
#671946
TuriКнига
1   ...   127   128   129   130   131   132   133   134   ...   779
Bog'liq
Гудфеллоу Я , Бенджио И , Курвилль А Глубокое обучение

111
Чтобы подойти к крайнему случаю произвольно высокой емкости, введем понятие 
непараметрической
модели
. До сих пор мы рассматривали только параметрические 
модели типа линейной регрессии. Параметрическая модель обучает функцию, опи-
санную вектором параметров, размер которого конечен и фиксируется до наблюде-
ния данных. У непараметрических моделей такого ограничения нет.
Иногда непараметрические модели представляют собой просто теоретические абст-
ракции (например, алгоритм, который производит поиск среди всех возможных рас-
пределений вероятности), не реализуемые на практике. Однако можно также спро-
ектировать практически полезные непараметрические модели, сделав их сложность 
функцией от размера обучающего набора. Примером такого алгоритма может служить 
регрессия методом ближайшего соседа
. В отличие от линейной регрессии, когда раз-
мер вектора весов фиксирован, модель регрессии методом ближайшего соседа просто 
сохраняет 
X
и 
y
из обучающего набора. Когда модель просят классифицировать те-
стовую точку 
x
, она находит ближайшую к 
x
точку обучающего набора и возвращает 
ассоциированную с ней метку. Иными словами, 
y


y
i
, где 
i
= arg min ||
X
i
, :
– 
x
||
2
2
. Этот 
алгоритм легко обобщается на метрики, отличные от нормы 
L
2
, например найденные 
в процессе обучения (Goldberger et al., 2005). Если позволено разрешать неоднознач-
ности путем усреднения значений 
y
i
по всем 
X
i
, :
являющимся ближайшими соседями, 
то этот алгоритм может достичь минимально возможной ошибки обучения (которая 
может оказаться больше нуля, если с двумя одинаковыми примерами ассоциированы 
разные метки) на любом наборе данных для регрессии.
Наконец, мы можем создать непараметрический алгоритм обучения, обернув па-
раметрический алгоритм другим, который увеличивает число параметров по мере 
необходимости. Представьте, к примеру, внешний цикл обучения, который изменяет 
степень многочлена, обучаемого в результате регрессии.
Идеальной моделью являлся бы оракул, который просто знает истинное распре-
деление вероятности, на основе которого генерируются данные. Но даже такая мо-
дель будет давать некоторую ошибку для многих задач из-за шума. В случае обучения 
с учителем отображение 
x
в 
y
может быть действительно стохастическим, но также 
возможно, что 
y
– детерминированная функция, только у нее есть дополнительные 
аргументы, помимо включенных в 

Download 14,23 Mb.

Do'stlaringiz bilan baham:
1   ...   127   128   129   130   131   132   133   134   ...   779




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish