O’ZBEKISTON RESPUBLIKASI
OLIY VA O’RTA TA’LIM VAZIRLIGI
M.ULUG’BEK NOMIDAGI O’ZBEKISTON MILLIY UNIVERSITETI JIZZAX FILIALI
AMALIY MATEMATIKA VA INFORMATIKA fakulteti
Kompyuter ilimlari va dasturlash texnologiyalari – M2-21 guruh magistranti
Adashboyev Jaloliddinning “BERILGANLARNING INTELLEKTUAL TAHLILI” fanidan
“Fisher chiziqli diskriminanti.” mavzusidagi
REFERAT
Bajardi: J.Adashboyev
Qabul qildi: U.Mingboyev
Jizzax-2021
Mavzu: Fisher chiziqli diskriminanti
Reja:
1. Fisher diskriminanti
2. Fisher diskriminanti: Ikki toifali holat
3. Chiziqli diskriminant tahlili
7.7.2 Fisher diskriminanti: Ikki toifali holat
Fisherning chiziqli diskriminant tahlilida tenglamadagi urg'u. (7.54) faqat th da ; tarafkashlik atamasiθ0muhokamadan chetda qolmoqda. Ichki mahsulotθTxx ning th vektor bo'ylab proyeksiyasi sifatida ko'rish mumkin . To‘g‘rirog‘i, geometriyadan bilamizki, tegishli proyeksiya ham vektor, y , (masalan, 5.6- bo‘lim ) tomonidan berilgan.
y=θTx||θ||θ||θ||,
qayerda θ||θ||th yo'nalishidagi birlik norma vektoridir . Bundan buyon biz proyeksiyaning skalyar qiymatiga e'tibor qaratamiz,y:=θTx, va maxrajdagi masshtablash faktoriga e'tibor bermang, chunki barcha xususiyatlarni bir xil qiymat bo'yicha masshtablash bizning muhokamamizga ta'sir qilmaydi. Maqsad, th yo'nalishini shunday tanlashdirki, bu yo'nalish bo'ylab proyeksiya qilgandan so'ng, (a) ikki sinfdagi ma'lumotlar bir-biridan iloji boricha uzoqroqda bo'lishi va (b) ularning atrofidagi nuqtalarning tegishli dispersiyalari. vositalari, sinflarning har birida, imkon qadar kichik. Yuqorida aytib o'tilgan maqsadni aniqlaydigan mezon Fisherning diskriminant nisbati (FDR) bo'lib, u quyidagicha aniqlanadi.
(7,62)
qayerda μ1 va μ2th bo'ylab proyeksiyadan keyingi ikki sinfning (skalar) o'rtacha qiymatlari , ma'nosi
μk=θTμk,k=1,2.
Biroq, bizda bor
(7,63)(μ1−μ2)2=θT(μ1−μ2)(μ1−μ2)Tθ=θTSbθ,Sb:=(μ1−μ2)(μ1−μ2)T.
E'tibor bering, agar sinflar teng bo'lsa, Sb(7.56) dagi sinflararo tarqalish matritsasining miqyosli versiyasidir (bu oson tekshiriladi, chunki bu taxmin ostida,μ0=1/2(μ1+μ2)), va bizda bor
(7,64)(μ1−μ2)2∝θTΣbθ.
Bundan tashqari,
(7,65)σk2=E[(y−μk)2]=E[θT(x−μk)(x−μk)Tθ]=θTΣkθ,k=1,2,
olib keladi
σ12+σ22=θTSwθ,
qayerda Sw=Σ1+Σ2. E'tibor bering, agar sinflar teng bo'lsa,Sw(7.55) da belgilangan sinf ichidagi tarqalish matritsasining masshtablangan versiyasiga aylanadi va bizda
(7,66)σ12+σ22∝θTΣwθ.
(7.62) , (7.64) va (7.66) ni birlashtirib , proportsionallik konstantalarini e'tiborsiz qoldirib, biz natijaga erishamiz.
(7,67)
Bizning maqsadimiz endi th ga nisbatan FDRni maksimal darajada oshirishga aylanadi . Bu umumlashtirilgan Rayleigh nisbati bo'lib , chiziqli algebradan ma'lumki, th qanoatlansa , u maksimal darajaga etadi.
Σbθ=λΣwθ,
bu yerda l - matritsaning maksimal xos qiymatiΣw−1Σb( 7.14- muammo ). Biroq, bu erdagi 4-chi holatimiz uchun biz xos qiymat-o'z vektor muammosini hal qilish zaruratini chetlab o'tishimiz mumkin. Shuni hisobga olgan holdaΣw ning masshtabli versiyasidir Sbtenglamada. (7.63) , oxirgi tenglamani quyidagicha qayta yozish mumkin
λΣwθ∝(μ1−μ2)(μ1−μ2)Tθ∝(μ1−μ2),
ichki mahsulotdan beri, (μ1−μ2)Tθ, skalerdir. Boshqa so'zlar bilan aytganda,Σwθ yo'nalishida yotadi (μ1−μ2), va biz faqat yo'nalishga qiziqqanimiz sababli, biz nihoyat yozishimiz mumkin
(7,68)
albatta shunday deb hisoblasak Σwteskari hisoblanadi. Amalda,Σw mavjud kuzatishlar yordamida tegishli namunaviy o'rtacha sifatida olinadi.
7.11 A-rasmda ikki o'lchovli fazoda ikkita sharsimon taqsimlangan (izotrop) sinflar uchun natija yo'nalishi ko'rsatilgan. Bunday holda, ma'lumotlarni loyihalash yo'nalishi parallel bo'ladi(μ1−μ2). Yilda Fig. 7.11 B, ikki sinflarda ma'lumotlar tarqatish sharsimon emas, va aks yo'nalishi (arbobi chap pastki chiziq) ikki o'rtacha ball qo'shilish segmentida parallel emas. E'tibor bering, agar o'ngdagi chiziq tanlangan bo'lsa, proektsiyadan keyin sinflar bir-biriga mos keladi.
Toʻliq oʻlchamdagi rasmni yuklab olish uchun tizimga kiring
7.11-rasm . (A) Ikki sferik taqsimlangan sinf uchun Fisher diskriminantidan kelib chiqadigan optimal yo'nalish. Proyeksiya sodir bo'ladigan yo'nalish ikki sinfdagi ma'lumotlarning o'rtacha qiymatlarini birlashtiruvchi segmentga parallel. B) Rasmning pastki chap tomonidagi chiziq Fisher diskriminantidan kelib chiqadigan yo‘nalishga mos keladi; u endi m 1 - m 2 ga parallel emasligini kuzating . Taqqoslash uchun shuni ko'ringki, o'ngdagi boshqa chiziqqa proyeksiya qilish sinflarning o'zaro kelishiga olib keladi.
Fisher diskriminant usulidan klassifikator sifatida foydalanish uchun chegara θ0 qabul qilinishi kerak va sinf foydasiga qaror qoidaga muvofiq amalga oshiriladi
(7,69)y=(μ1−μ2)TΣw−1x+θ0{>0,classω1,<0,classω2.
, Hozir, solishtiring (7.69) (7.20) bilan - (7.22); ikkinchisi Gauss ishi uchun Bayes qoidasi orqali olingan, bunda ikkala sinf ham bir xil kovariatsiya matritsasiga ega. E'tibor bering, bu holda ikkala usul uchun olingan giperplanlar parallel va farq faqat chegara qiymatida. Biroq, Gauss taxmini Fisher diskriminanti uchun kerak emasligiga e'tibor bering. Bu (7.20) - (7.22) dan foydalanishni oqlaydi, hatto ma'lumotlar odatda taqsimlanmagan bo'lsa ham. Amalda, ma'lumotlarga qarab, turli chegara qiymatlari qo'llanilishi mumkin.
Nihoyat, dunyo ko'pincha kichik bo'lgani uchun, agar maqsad sinf belgilari ±1 o'rniga tanlangan bo'lsa, Fisher diskriminantini LS yechimining alohida holati sifatida ham ko'rish mumkinligini ko'rsatish mumkin. N1N va −N2N, mos ravishda, bu erda N - o'quv namunalarining umumiy soni,N1 sinfdagi namunalar soni ω1, va N2 sinfdagi mos keladigan raqam ω2, masalan, [41] .
Fisherning diskriminant usulining yana bir nuqtai nazari shundaki, u ma'lumotlarni proyeksiyalash orqali o'lchamlarni kamaytirishni amalga oshiradi. original l -o'lchovli fazodan pastki bir o'lchovli fazoga. O'lchamdagi bu pasayish o'quv ma'lumotlarining sinf belgilaridan foydalangan holda nazorat ostida amalga oshiriladi . 19- bobda ko'rib turganimizdek , o'lchamlarni kamaytirish nazoratsiz tarzda amalga oshiriladigan boshqa texnikalar ham mavjud. Endi aniq savol shundaki, Fisherning fikrini o'lchovlilikni birga emas, balki bir va l o'rtasidagi boshqa oraliq qiymatga kamaytirish uchun ishlatish mumkinmi , bu erda l - xususiyat maydonining o'lchovliligi. Ma'lum bo'lishicha, bu mumkin, lekin bu ham sinflar soniga bog'liq. O'lchamlarni kamaytirish texnikasi haqida ko'proq ma'lumotni 19- bobda topish mumkin .
Bo'limni ko'rishKitob sotib olish
Do'stlaringiz bilan baham: |