2. Gradient usuli.
Biror jar yonbag'rida turgan odamni tasavvur qiling, u pastga (pastga) tushishi kerak. Ko'rinib turibdiki, eng tabiiy tushish yo'nalishi bo'yicha yo'nalish, ya'ni. yo'nalish (-grad F (x)). Natijada paydo bo'lgan strategiya gradiyent usuli, har biri ikkita operatsiyani o'z ichiga olgan qadamlar ketma-ketligi:
a) eng tik tushish (ko'tarilish) yo'nalishini aniqlash;
b) tanlangan yo'nalishda bir qadam bilan harakat qilish.
To'g'ri balandlikni tanlash juda muhimdir. Qadam qancha kichik bo'lsa, natija shunchalik aniq, ammo hisob-kitoblar shunchalik ko'p bo'ladi. Turli xil modifikatsiyalar gradiyent usuli va qadamni aniqlashning turli usullarini qo'llashdan iborat. Agar biron bir qadamda F (x) qiymati pasaymagan bo'lsa, demak, bu minimal nuqta "o'tgan" degan ma'noni anglatadi, bu holda avvalgi nuqtaga qaytish va qadamni, masalan, yarmiga kamaytirish kerak.
Optimallashtirish muammosi bunday omil qiymatlarini topish muammosidir x 1 = x 1* , x 2 = x 2* , …, x k = x k * unda javob funktsiyasi ( da) haddan tashqari qiymatga etadi da \u003d ext (optimal).
Ma'lum turli xil usullar optimallashtirish muammosini hal qilish. Eng keng qo'llaniladigan usullardan biri bu Badi-Uilson usuli va tik ko'tarilish usuli deb ham ataladigan gradient usuli.
Ikki omilli javob funksiyasi misolida gradient usulining mohiyatini ko'rib chiqamiz y \u003df (x 1 , x 2 ). Shakl. 4.3 javob funktsiyasining teng qiymatlari egri chiziqlari (daraja egri chiziqlari) faktor makonida ko'rsatilgan. Koordinatali nuqta x 1 *, x 2 * javob berish funktsiyasining haddan tashqari qiymatiga mos keladi da ext.
Agar faktor makonining biron bir nuqtasini boshlang'ich sifatida tanlasak ( x 1 0 , x 2 0), u holda bu nuqtadan javob funktsiyasi tepasiga eng qisqa yo'l egri chiziq bo'ylab yo'l bo'ladi, unga har bir nuqtada normal darajaga to'g'ri keladigan teginish, ya'ni. bu javob funktsiyasi gradienti yo'nalishi bo'yicha yo'l.
Uzluksiz bitta qiymatli funktsiyaning gradyenti y \u003df(x 1 , x 2) yo'nalish bo'yicha koordinatali gradient bilan aniqlangan vektor:
qaerda men,j - koordinata o'qlari yo'nalishi bo'yicha birlik vektorlari x 1 va x Qisman hosilalar vektor yo'nalishini tavsiflaydi.
Biz giyohvandlikning turini bilmasligimiz sababli y \u003df(x 1 , x 2), biz qisman hosilalarni topa olmaymiz va gradientning haqiqiy yo'nalishini aniqlaymiz.
Gradient usuliga ko'ra faktor makonining ba'zi qismida boshlang'ich nuqta (boshlang'ich darajalar) tanlanadi x 1 0 , x 20. Ushbu dastlabki darajalarga nisbatan eksperimentning nosimmetrik ikki darajali dizayni qurilgan. Bundan tashqari, variatsiya oralig'i shunchalik kichkina tanlanganki, chiziqli model etarli bo'ladi. Ma'lumki, etarlicha kichik sohadagi har qanday egri chiziqli model bilan taxminiylashtirilishi mumkin.
Nosimmetrik ikki darajali rejani tuzgandan so'ng, interpolatsiya masalasi hal qilinadi, ya'ni. chiziqli model qurilgan:
va uning etarliligi tekshiriladi.
Agar tanlangan o'zgarish oralig'ida chiziqli model etarli bo'lsa, unda gradient yo'nalishini aniqlash mumkin:
Shunday qilib, javob funktsiyasi gradyanining yo'nalishi regressiya koeffitsientlari qiymatlari bilan aniqlanadi. Bu shuni anglatadiki, biz koordinatali nuqtadan (agar) gradient yo'nalishi bo'yicha harakatlansak ( ) koordinatali nuqtaga o'ting:
qaerda m -gradyan yo'nalishi bo'yicha qadam hajmini belgilaydigan ijobiy raqam.
Sifatida x 1 0 \u003d 0 va x 2 0 \u003d 0, keyin .
Gradientning yo'nalishini aniqlab () va qadam o'lchamini tanlang m, biz tajribani dastlabki darajada amalga oshiramiz x 1 0 , x 2 0 .
Keyin gradient yo'nalishi bo'yicha bir qadam tashlaymiz, ya'ni. koordinatali nuqtada tajriba o'tkazamiz. Agar javob funktsiyasining qiymati uning boshlang'ich darajadagi qiymatiga nisbatan oshgan bo'lsa, biz gradient yo'nalishi bo'yicha yana bir qadam tashlaymiz, ya'ni. biz koordinatali nuqtada tajriba o'tkazamiz:
Javob funktsiyasi pasayib ketguncha gradient bo'ylab harakatlanishni davom ettiramiz. Shakl. 4.3 gradyan bo'ylab harakatlanish nuqtadan chiqadigan to'g'ri chiziqqa to'g'ri keladi ( x 1 0 , x 20). Javob funktsiyasining chiziqli emasligi tufayli chiziqli chiziq bilan ko'rsatilgan gradyanning haqiqiy yo'nalishidan asta-sekin chetga chiqadi.
Keyingi tajribada javob funktsiyasining qiymati pasayishi bilanoq, gradient bo'ylab harakatlanish to'xtatiladi, javob funktsiyasining maksimal qiymati bilan tajriba yangi boshlang'ich daraja sifatida qabul qilinadi, yangi simmetrik ikki darajali reja tuzildi va interpolatsiya muammosi yana hal qilindi.
Yangi chiziqli modelni qurish orqali , regressiya tahlilini o'tkazing. Agar bir vaqtning o'zida omillarning ahamiyatini tekshirish kamida bitta koeffitsientni ko'rsatsa
bu shuni anglatadiki, javob funktsiyasi ekstremumining mintaqasiga (tegmaslik mintaqasiga) hali erishilmagan. Gradientning yangi yo'nalishi aniqlanadi va optimal mintaqaga qarab harakat boshlanadi.
Gradient yo'nalishini va gradient bo'ylab harakatlanishni takomillashtirish keyingi interpolatsiya masalasini echish jarayonida omillarning ahamiyatini tekshirish barcha omillar ahamiyatsiz ekanligini ko'rsatguncha davom etadi. barchasi. Bu eng maqbul mintaqaga erishilganligini anglatadi. Shu nuqtada optimallashtirish muammosini hal qilish to'xtatiladi va javob funksiyasining maksimal qiymatiga ega bo'lgan tajriba maqbul hisoblanadi.
IN umumiy ko'rinish optimallashtirish masalasini gradient usuli bilan hal qilish uchun zarur bo'lgan harakatlar ketma-ketligi blok-diagramma shaklida taqdim etilishi mumkin (4.4-rasm).
1) omillarning boshlang'ich darajasi ( x j 0) agar uning pozitsiyasi to'g'risida apriori ma'lumot bo'lsa, maqbul nuqtaga iloji boricha yaqinroq tanlanishi kerak;
2) o'zgaruvchanlik oralig'i (Δ x j) chiziqli model etarli bo'lishi uchun tanlanishi kerak. Pastki chegara Δ x j bu javob funktsiyasi muhim bo'lib qoladigan variatsiya oralig'ining minimal qiymati;
3) qadam qiymati ( t) gradyan bo'ylab harakatlanishda mahsulotlarning eng kattasi normallashgan shakldagi omillarning yuqori va pastki darajalari orasidagi farqdan oshmasligi uchun tanlanadi.
.
Binobarin,. Kichikroq qiymatda t boshlang'ich darajadagi va koordinatalari bo'lgan nuqtadagi javob funktsiyasi orasidagi farq ahamiyatsiz bo'lib chiqishi mumkin. Bosqichning kattaroq qiymati bilan javob berish funktsiyasining eng maqbul hajmini o'zgartirish xavfi mavjud.
Gradient usulining kamchiligi shundaki, undan foydalanganda faqat maqsad funktsiyasining lokal minimumi aniqlanishi mumkin. Funktsiya uchun boshqa mahalliy minimalarni topish uchun boshqa boshlang'ich nuqtalardan qidirish kerak.
Ushbu usulning yana bir kamchiligi shundaki, hisoblashning katta miqdori har bir qadamda optimallashtirilgan funktsiyaning barcha qisman hosilalarining barcha mustaqil o'zgaruvchilarga nisbatan qiymatlari aniqlanadi.
Eng keskin tushish usuli
Gradient usulini qo'llashda har bir qadamda optimallashtirilgan funktsiyaning qisman hosilalarining barcha mustaqil o'zgaruvchilarga nisbatan qiymatlarini aniqlash kerak. Agar mustaqil o'zgaruvchilar soni muhim bo'lsa, unda hisoblash miqdori sezilarli darajada oshadi va optimalni qidirish vaqti ko'payadi.
Hisoblash hajmini kamaytirishga eng keskin tushish usuli yordamida erishish mumkin.
Usulning mohiyati quyidagicha. Boshlang'ich nuqtada optimallashtirilgan funktsiyaning gradyenti topilgandan va shu bilan uning belgilangan nuqtada eng tez pasayish yo'nalishi aniqlangandan so'ng, bu yo'nalishda tushish bosqichi amalga oshiriladi (2.2-rasm).
Agar ushbu qadam natijasida funktsiya qiymati pasayib ketsa, xuddi shu yo'nalishda yana bir qadam qo'yiladi va shu yo'nalishda minimal topilguncha davom etadi, shundan so'ng gradient hisoblanib, eng past pasayishning yangi yo'nalishi ob'ektiv funktsiyasi aniqlanadi.
Anjir. 2.2. Eng keskin tushish usulida (-) va gradient usulida (∙∙∙∙) harakatlanishning optimalligi
Gradient usuli bilan taqqoslaganda, hisoblashning kamayishi tufayli eng keskin tushish usuli ko'proq foyda keltiradi.
Eng keskin tushish usulining muhim xususiyati shundaki, u tatbiq etilganda optimal harakatlanishning har bir yangi yo'nalishi oldingisiga nisbatan ortogonaldir. Bu bir yo'nalishda harakatlanish harakat yo'nalishi doimiy darajadagi har qanday chiziqqa tegib bo'lguncha amalga oshirilishi bilan izohlanadi.
Yuqoridagi usulda bo'lgani kabi bir xil shartni qidirishning so'nggi mezoni sifatida ishlatish mumkin.
Bundan tashqari, siz qidiruvni tugatish shartini munosabatlar shaklida ham qabul qilishingiz mumkin
Qidiruvni tugatish shartlarini birgalikda qo'llash optimallashtirilgan funktsiya aniq minimal darajaga ega bo'lgan hollarda oqlanadi.
Anjir. 2.3. Eng keskin tushish usuli bo'yicha qidiruvning oxirini aniqlashga
Pastga tushish qadamini o'zgartirish strategiyasi sifatida siz yuqorida tavsiflangan usullardan foydalanishingiz mumkin
Foydalanilgan adabiyotlar.
"EKSPRIMENTNI REJALASHTIRISH VA NATIJALARGA ISHLOV BERISH " FANIDAN maruzalar matni
https://daglse.ru/uz/gradientnye-metody-prosteishii-gradientnyi-metod.html
Do'stlaringiz bilan baham: |