Algoritm gradient oshirish
Barcha holatlarda, yuqorida tavsiflanganlar yoki birinchi bobda tavsiflanganlar algoritmlar, biz zaif yoki kuchli algoritmlar muammosiga duch kelamiz. Da yutuqlar mutlaq chegara Ish algoritmlar mashina
o'rganish to'xtaydi. IN keyin bir xil vaqt mualliflar [130] edi empirik tarzda isbotlangan bu haqiqat, nima sifat bashoratlar Bormoq yoki boshqa algoritm Kompozitsiyalarning ko'payishi tufayli mashinani o'rganish yaxshilanishi mumkin algoritmlar tan olish. muammo shunday yechimlar aylandi o'sish qiyinchiliklar eng algoritm [131].
Tadqiqot bo'linish algoritmlar mashina o'rganish ustida zaif Va kuchli tez orada LED uchun xulosa nima har qanday zaif algoritm mumkin oshirish faqat to'g'ri kompozitsiyani qurish orqali. Ya'ni, samaradorlik va bu algoritmning soddaligi aniq afzalliklarga ega. 2001 yilda ichida ish [132] algoritm edi umumlashtirilgan Va oldi sarlavha gradient oshirish.
Vazifa tasnifi tarmoq tirbandlik ustida asos gradient oshirish tuzilgan Keyingi yo'l:
kiritish ma'lumotlar bo'ladi: tarbiyaviy namuna { ๐ฅ 1 , โฆ , ๐ฅ ๐ } , rost har birining teg qiymatlari ob'ekt {๐ฆ 1, , โฆ , ๐ฆ ๐ } , raqam iteratsiyalar ๐ ;
tanlash funktsiyalari yo'qotishlar ๐ฟ ( ๐ฆ, ๐ ) ;
tanlash Asosiy algoritm โ(๐ฅ, ๐) ;
tanlash giperparametrlar.
Gradientni kuchaytirish algoritmidan foydalanib, uni qayta tiklash kerak qaramlik ๐ฆ = ๐ ( ๐ฅ ) ga yaqinlashtirish orqali ๐ ฬ ( ๐ฅ ) , minimallashtirish uchun biz foydalanamiz funktsiyasi yo'qotishlar L ( ๐ฆ, ๐(๐ฅ) ) :
๐ ฬ ( ๐ฅ ) = ๐๐๐ min โช ๐ฅ,๐ฆ [๐ฟ(๐ฆ, ๐ ( ๐ฅ ) )], (2.10)
๐(๐ฅ)
da bu umumiy funktsiyasi xatolar bo'ladi so'm xatolar ustida hamma trening misol:
๐=1
๐ธ ( ๐ ) = โ ๐ ๐ธ ๐ (๐ ( ๐ฅ, ๐ ) , ๐ฆ) , (2.11)
qayerda ๐ - parametr chegarasi qidirmoq funktsiyalari.
Algoritm gradient oshirish yuqorida hal qiluvchi daraxtlar birlashtiradi
๐ก=1
bir nechta daraxtlar regressiya โ ๐
๐ ๐ก (๐ฅ)
uchun yaqinlashishlar final
modellar
๐ก=1
๐ ๐ ( ๐ฅ ) = โ ๐
Daraxtlar regressiya mumkin ifodalash Qanday
๐ ๐ก (๐ฅ)
(2.12)
๐ค ๐(๐ฅ) , ๐ โ {bir, 2, โฆ , ๐ฝ} , (2.13) qayerda ๐ฝ - bu raqam barglar, ๐ - bu qoidalar qabul qilish hal qiluvchi daraxt, lekin
๐ค - vektor, bildiruvchi vazn namunalar.
Binobarin, gradient oshirish ustida hal qiluvchi daraxtlar bo'ladi o'rganing ichida qo'shimcha shaklda bosqich ๐ก Keyingi yo'l:
๐=1
D๐ก _ = โ ๐ ๐ฟ(๐ฆ ๐ , ๐น ๐กโ1 ( ๐ฅ ๐ ) + ๐ ๐ก (๐ฅ ๐ )). (2.14)
Bo'lsin ๐ผ ๐ to'plam varaq ๐ :
D = โ ๐
( ( โ๐ ) ๐ + bitta ( โโ _
+ ๐)๐ 2 ), (2.15)
๐ก ๐=1
๐โ๐ผ ๐ ๐ ๐ 2
๐โ๐ผ ๐ ๐ ๐
qayerda ๐ ๐ Va โ ๐ bor funktsiyalari yo'qotishlar birinchi Va ikkinchi buyurtma.
maqsad funktsiyasi gradient oshirish Unda bor ko'rinish:
2
1 ( โ๐ _ )
2
( โ๐ _ )
( โ๐ ) 2
G = ( ๐โ๐ผ ๐ฟ ๐ + ๐โ๐ผ ๐
๐ โ ๐โ๐ผ ๐ ) , (2.16)
2 โ ๐โ๐ผ ๐ฟ โ ๐ +๐
โ ๐โ๐ผ ๐
โ ๐ +๐
โ ๐โ๐ผ โ ๐ +๐
qayerda ๐ผ ๐ฟ Va ๐ผ๐
_ to'plamlar ma'lumotlar chap Va to'g'ri filiallari daraxt [ 133 ].
Aniq foyda algoritm gradient oshirish bor yuqori o'zgaruvchanlik algoritm, imkoniyat o'z-o'zidan tanlang funktsiyasi yo'qotish, imkoniyat tanlash Asosiy algoritm uchun o'rganish modellar gradient oshirish.
Ushbu algoritmning kamchiligi murakkablikdir, ayniqsa, agar zarur qurmoq kopgina algoritmlar uchun kompozitsiyalar. IN keyin bir xil vaqt uchun tezlashuv ish gradient oshirish balki ilova turli xil algoritmlar optimallashtirish.
Shunday qilib, aniqlash muammosi uchun DDoS hujumlari maqsadga muvofiq gradientni kuchaytirish algoritmidan foydalaning. Biroq, bu zarur qurmoq har xil modellar ustida asos hammasi topshirildi algoritmlar mashina o'rganish dan o'qituvchi uchun haqiqiyligi tanlash algoritm.
Do'stlaringiz bilan baham: |