50
тўлишга лаёқатини баҳолашда зарур бўлган параметрлар келтирилган. Python
дастурлаш тилида нейрон тўрини ҳосил қилиш ва уни ўқитиш қулай ҳисобланади.
Бунда ўқитиш маълумотлари .csv форматига, яъни вергул билан ажратилган
қийматли кўринишда сақланади.
1. Аномалияларни йўқотиш. Ўқитиш учун олинган маълумотларни аввало,
дастлабки ишлов бериш орқали тайёрлашимиз зарур. Бунда энг аввало,
бир хил
параметрларда икки хил натижа кузатилган сатрларни тўғрилашимиз зарур
бўлади. Шундан сўнг бир хил қийматли параметрлардан ташкил топган сатрларни
фақат биттасини қолдирамиз.
4-расм. Мижоз ҳақидаги маълумотларнинг дастлабки кўриниши
2. Бўш ўринларни тўлдириш. Ўқитиш учун олинган маълумотлар ичида
параметрга қиймат берилмаган ячейкаларни яъни бўш бўлган жойларни энг катта
частатода бўлган қиймат билан алмаштирилади. Бу орқали Хопфилд нейрон
тўрини ўқитиш жараёни хатоликларсиз ўтишига эришамиз.
5-расм. Ўқитиш маълумотларининг .csv форматдаги кўриниши
3. Кодлаш. Ушбу босқичда ўнлик саноқ тизимида берилган натурал
сонларни иккилик кодини оламиз. Чунки Хопфилд нейрон тўри киришига фақат 1
ва -1 ёки 1 ва 0 қийматлар бериш зарур бўлади. Бунда ўқитиш учун векторлар шу
тариқа тайёрлаб олинади. Берилган масалада 18 та
кирувчи параметр мавжуд
бўлиб, уларнинг қабул қилиши мумкин бўлган энг катта қиймати 7 гачани ташкил
қилади. Шунинг учун параметрлар қийматларини кодлашда уч хонали иккилик
кодлар кифоя қилади. Яъни 0 учун 000 ва 7 учун 111 қиймат тўғри келади.
51
1- жадвал. Параметр қийматларини кодлаш
Параметр қиймати
Ўнлик саноқ системасида
Иккилик коди
0
000
1
001
2
010
3
011
4
100
5
101
6
110
7
111
4. Тармоқни ўқитиш. Тармоқни ўқитиш жараёнида m та векторни, яъни
тизимнинг “хотираси” ни ташкил этувчи эталон тимсолларни хотирада сақлаб
қолиш учун хизмат қилувчи ўзаро алоқа матрицаси вазнлари топилади.
Коэффициентларни ҳисоблаш қуйидагича қоидага асосланади: Барча эслаб
қолинган
тимсоллар учун алоқа матрицаси ушбу ифодани қаноатлантириши
керак
.
Айнан шу шарт бажарилган
тармоқнинг ҳолати турғун бўлади ва шу
ҳолатда сақланиб қолади. Векторларни эслаб қолиш бинар шаклда бўлиши лозим.
Вазн коэффициентларини ҳисоблаш қуйидаги формула асосида бажарилади:
,
бу ерда
векторлар ўлчами,
эслаб қолинадиган чиқувчи векторлар сони,
эслаб қолинадиган чиқувчи вектор рақами,
эслаб қолинадиган -чиқувчи
векторнинг -компонентаси.
Ушбу ифода қуйидагича ҳам ёзиш мумкин бўлади.
,
бу ерда – -эслаб қолинадиган устун-вектор.
Ушбу вазн коэффициентларини ҳисоблаб чиқиш тармоқни ўқитиш
дейилади ва бу фақат бир даврда амалга оширилади.
6-расм. Нейрон тўрини ўқитиш жараёни
Юқоридаги 6-расмда нейрон тўрини ўқитиш жараёни тасвирланган.
Хопфилд тўрини ўқитиш алгоритми персептронни ўқитишнинг
хатоларни
тўғрилаш методи ёки хатони тескари тарқатиш методи каби классик
52
алгоритмларидан мутлақо фарқ қилади. Фарқи шундан иборатки, Хопфилд
тўрини ўқитишда матрицанинг барча коэффициентлари ягона формула асосида
ҳисобланади ва бу бир даврда амалга оширилади. Шундан сўнг тармоқ
ишлатишга тайёр бўлади. Баъзи муаллифлар Хопфилд тўрини ўқитувчисиз
ўқиталадиган тармоқга киритишади. Бу нотўғри фикр ҳисобланади.
Чунки
ўқитувчисиз ўқитишда қайси синфлар учун алоҳида эътибор бериш кераклиги
ҳақидаги ахборот мавжуд бўлмайди. Хопфилд тўрлари учун бу ахборотсиз вазн
коэффициентларини созлаб бўлмайди. Шунинг бу каби тармоқларни
оптимизацияловчи тармоқлар синфига киритиш маъқул ҳисобланади. Бу
синфдаги тармоқларнинг ўзига хос хусусиятлари шундан иборатки, уларда вазн
коэффициентлари матрицаси детерминаллашган
алгоритм асосида бир марта
созланади ва буткул ўзгаришсиз қолади. Бу схема техника даражасида
қурилмаларда реализация қилиш учун қулай ҳисобланади. Хопфилд тўрида
тескари алоқалар мавжуд шунинг учун турғунлик масаласини ҳал қилиш керак
бўлади. Хопфилд тўрларида нейронлар ўрасидаги вазн коэффициентлар W
матрица кўринишида берилиши мумкин. Cохен, Гроссбергларнинг ишларида
ушбу матрицанинг симмитрик ва бош диагонали ноллардан иборат бўлиши
турғунлигини таъминлаши кўрсатилган [11,16].
Юқоридаги талаблар зарурий бўлиши билан бирга етарли ҳисобланмайди.
Бундан ташқари тармоқ асинхрон режимда ишлаши зарур бўлади ва бу
тармоқнинг турғун ҳолатга келишини кафолатлайди.
Синхрон режимда иккита
ҳолатларнинг биридан иккинчисига чексиз алмашиниш жараёни вужудга келиши
мумкин ва бундай ҳолат динамик аттрактор деб аталади. Турғун ҳолатни эса
статик аттрактор деб аташ қабул қилинган. Тармоқни ўқитиш жараёнида
фаоллаштириш функцияси сифатида гиперболик тангенс, сигмоид ёки ReLU
функцияларини қўллаш мумкин. Нейронлар киришида қандай қийматлардан
фойдаланишга қараб бу функциялардан биридан фойдаланиш мумкин. Агар “1”
ва “-1” танланган бўлса, унда гиперболик тангенс, “1” ва “0” танланган бўлса,
унда сигмоид ёки ReLU функциясидан фойдаланиш мумкин бўлади. Ҳозирда
ReLU фаоллаштириш функцияси кенг қўлланилмоқда, чунки унинг ишлаш
тезлиги сигмоидга нисбатан юқори эканлиги аниқланган.
Хопфилд нейрон тўрларининг камчилиги кўп миқдордаги тимсолларни
таниш учун фойдаланиб бўлмаслиги. Шундай ҳолатда Хопфилд тўри
уларни
таний олмайди. Бизнинг масалада икки хил мижозни аниқлаш, яъни кредитни
тўлашга лаёқатли ёки лаёқатсиз бўлган синфларга ажратишни амалга ошириш
ҳисоланади. Демак, ушбу нейрон тўри бу каби масалани ечиш учун етарли
имкониятга эга.
Do'stlaringiz bilan baham: