KUCHNI BAHOLASH
Quyida biz Android qulfini ochish naqshlari haqida to'plangan ma'lumotlarni tahlil qilish uchun asos beramiz
kuch. Xususan, biz rasmiy tushunchani o'rnatishimiz kerak "parol kuchi" bo'yicha.
Markov modellariga qisqacha kirish
Markov modellarining asosiy g'oyasi shundan iboratki, oddiy matndagi harflar yoki Pass-Go-dagi tugunlar kabi kensdan keyingi.
sxema, kamdan-kam hollarda odamlar tomonidan mustaqil ravishda tanlanadi. Masalan, ingliz tilidagi matnlarda atdan keyingi harf ko'proq bo'ladi aq dan h bo'lishi va Pass-Go sxemasi tugunlari uchun
Markov modelidan foydalanish uchun biz buni aniqlashimiz kerak
P(c1, . . . . ., cnÿ1) boshlangÿich ehtimolliklari va oÿtish ehtimoli P (cn|c1, ,
cnÿ1), bunda biz eng yaxshi natijalarga erishamiz.
ga yaqin bo'lgan ma'lumotlardan bu ehtimolliklarni o'rganish
Biz hujum qilayotgan to'plamga mumkin. Ehtimollarni hisoblash uchun n- grammlarning nisbiy chastotalaridan foydalanish mumkin
ravshan tarzda, lekin bir qator muammolar paydo bo'ladi, masalan, a 0 ehtimoli bo'lmagan n-grammlarga tayinlanadi
o'quv majmuasining bir qismi. n-gramm sonlarini oldindan qayta ishlash, silliqlash deb ataladigan narsa, bu muammolarni ma'lum darajada hal qilishi mumkin. Biz bir nechta dizayn variantlarini muhokama qilamiz
4.3-bo'limda Markov modellari va bir nechta tajribalarni ko'rsatish bu bizning parametrlarni tanlashimizni oqlaydi.
Amalga oshirish
Android qulfini ochish naqshlari yoki an'anaviy parollar kabi boshqa autentifikatsiya qatorlarini taxmin qilishda nomzodlarni ehtimoliy kamayish tartibida taxmin qilish foydali bo'ladi. Garchi bu umumiy parollar uchun qiyin bo'lsa-da
katta parol maydoni, biz baxtli holatdamiz
biz bu masalani bu holatda hal qila olamiz. Yuqori darajada, amalga oshirishimiz quyidagicha tuzilgan. Algoritm
o‘quv majmuasi va test majmuasidan foydalanish imkoniyatiga ega.
Biz mashg'ulotlar to'plamidan tez-tez uchraydigan naqshlarni tanlaymiz, chunki bular (yuqori ehtimollik bilan) tez-tez uchraydiganlar
test to'plamida ham
Biz n-gramm ehtimolini o'quv to'plamidan bilib olamiz,
Biz qolgan barcha naqshlar uchun ehtimollarni hisoblaymiz Markov modeliga asoslanib,
Biz barcha naqshlarni kamaytirish (taxminiy) proba bo'yicha saralaymiz
qobiliyat,
Biz bu taxminlarni test to'plamiga nisbatan baholaymiz.
Biz ma'lumotlar majmuamizda 5 marta o'zaro tekshirishni amalga oshiramiz: biz
maÿlumotlar toÿplamimizni K = 5 ta boÿlmagan S1, , S5 ning
(taxminan) teng o'lcham; barcha ma'lumotlar nuqtalari 5 to'plamdan birida
tasodifiy ravishda taqsimlangan. Biz sinov to'plamini tanlaymiz Si0 , vafoydalanamiz
qolgan to'plamlarning o'quv to'plami sifatida birlashishi. Biz takrorlaymiz test to'plami sifatida har bir Si uchun bu jarayon va yakuniy o'rtacha
barcha 10 ta yugurish natijalari. Bizning namunalarimiz 100 ga yaqin o'lchamga ega, shuning uchun o'quv to'plamlari 80 ga yaqin hajmga ega va test to'plamlari taxminan 20 o'lchamga ega.
Biz o'quv majmuasidan ikki xil usulda foydalanamiz: Birinchidan, biz ichida to'rt martadan ko'proq paydo bo'ladigan barcha naqshlarni tanlang o'quv to'plami. Bizning namuna o'lchamimiz kafolat uchun juda kichik nisbiy chastotalarning kichik taxminiy xatosi, u
hali ham boshqalarga qaraganda tez-tez sodir bo'lganiga ishora beradi. Bir nechta kam uchraydigan parollarni oldindan taxmin qilish kamroq qiladi tez-tez bir oldindan taxmin emas ko'ra zarar, Biz foydalanish a
kichik chegara 4. (Dastlabki testlarda biz topdik
natijalar oqilona parametrlarni tanlashga befarq bo'ladi.)
Qolgan naqshlarning chastotalarini baholash uchun biz Markov modeli uchun n-gramm chastotalarni o'rganamiz.
1
0,8
0,6
0.4
0.2
0
0
1000
2000
#taxmin
3000
4000 5000
Do'stlaringiz bilan baham: |