5.K oʻrtacha algoritmi.
K-oʻrtacha algoritmiga kirish
K-klasterlash algoritmi markazlarni hisoblab chiqadi va biz optimal markazni topgunimizcha takrorlanadi. Klasterlar soni allaqachon ma'lum deb taxmin qilinadi. U yassi klaster algoritmi deb ham ataladi. Algoritm bo'yicha ma'lumotlardan aniqlangan klasterlar soni K-o'rtachalarda "K" bilan ifodalanadi. Ushbu algoritmda ma'lumotlar nuqtalari klasterga shunday belgilanadiki, ma'lumotlar nuqtalari va markaz o'rtasidagi kvadrat masofaning yig'indisi minimal bo'ladi. Shuni tushunish kerakki, klasterlar ichidagi kamroq o'zgarishlar bir xil klasterda ko'proq o'xshash ma'lumotlar nuqtalariga olib keladi.
K-oʻrtacha algoritmining ishlashi
Biz K-Means klasterlash algoritmining ishini quyidagi bosqichlar yordamida tushunishimiz mumkin -
1-qadam - Birinchidan, biz ushbu algoritm tomonidan yaratilishi kerak bo'lgan K klasterlar sonini belgilashimiz kerak.
2-qadam - Keyin tasodifiy K ma'lumot nuqtasini tanlang va har bir ma'lumot nuqtasini klasterga tayinlang. Oddiy so'zlar bilan aytganda, ma'lumotlar nuqtalari soniga qarab ma'lumotlarni tasniflang.
3-qadam - Endi u klaster markazlarini hisoblab chiqadi.
4-qadam - Keyin, biz optimal markazni topmagunimizcha, ma'lumotlar nuqtalarini boshqa o'zgarmagan klasterlarga tayinlash uchun takrorlashni davom eting -
4.1 - Birinchidan, ma'lumotlar nuqtalari va markazlar orasidagi kvadrat masofaning yig'indisi hisoblanadi.
4.2 - Endi biz har bir ma'lumot nuqtasini boshqa klasterga (centroid) yaqinroq bo'lgan klasterga belgilashimiz kerak.
4.3 - Nihoyat, ushbu klasterning barcha ma'lumotlar nuqtalarining o'rtacha qiymatini olib, klasterlar uchun markazlarni hisoblang.
11.Radial neyron toʻrlari.
Radial asos funktsiyalari Neyron tarmoqlar - biz bilishimiz kerak bo'lgan hamma narsa
⁃ Yagona Perceptron / Ko'p qatlamli Perceptronda (MLP) biz faqat chiziqli bo'linishga egamiz, chunki ular kirish va chiqish qatlamlaridan iborat (MLPda ba'zi yashirin qatlamlar)
⁃ Masalan, AND, OR funksiyalari chiziqli ajratilmaydi va XOR funksiyasi chiziqli ajratilmaydi.
AND, OR, XOR funksiyalarining chiziqli ajratilishi
⁃ Chiziqli bo'lmagan ajratishni olish uchun bizga hech bo'lmaganda bitta yashirin qatlam kerak.
⁃ Bizning RBNN nima qiladi, u kirish signalini boshqa shaklga aylantiradi, keyinchalik chiziqli bo'linish uchun tarmoqqa kiritilishi mumkin.
⁃ RBNN strukturaviy jihatdan perseptron (MLP) bilan bir xil.
MLP va RBF o'rtasidagi farq
⁃ RBNN kirish, yashirin va chiqish qatlamidan iborat. RBNN qat'iy ravishda bitta yashirin qatlamga ega bo'lishi bilan cheklangan. Biz bu yashirin qatlamni xususiyat vektori deb ataymiz.
⁃ RBNN xususiyat vektorining o'lchamini oshiradi.
|
|
|
Do'stlaringiz bilan baham: |