ReLU va Softmax funksiyalarining farqi nimada
Relu va softmax chuqur o'rganishda faollashtirish funksiyalaridir. Bizda sigmasimon va leakyRelu kabi boshqa mashhur versiyalar ham mavjud.
Faollashtirish funksiyalaridan foydalanish yoshi ma'lum bir kirish to'plami uchun tugunning chiqishini aniqlashdan iborat.
Relu - bu yashirin qatlamda ham, chiqish qatlamida ham ishlatilishi mumkin bo'lgan faollashtirish funktsiyasi. U kirishni oladi, so'ngra 0 dan 1 gacha bo'lgan chiqishni hosil qiladi. Shunday qilib, siz Relu'da chiqish qiymatlari sifatida 0,1, 0,3, 0,9 kabi natijalarni olasiz.
Sigmasimon faollashtirish funksiyasidan ikkilik tasnif bilan ishlashda yashirin qatlamda ham, chiqish qatlamida ham foydalanish mumkin. ya'ni 0 dan 1 gacha bo'lgan natijani chiqaradi.
Softmax faollashtirish funksiyasi asosan chiqish qatlamida qo'llaniladi va u 2 dan ortiq chiqishlarni tasniflaganda ishlatiladi.
Bu bu haqda asosiy tushuntirish. Ammo agar sizga asosiy tushunchalar kerak bo'lsa .. Buning ortidagi matematikani tushunishingiz kerak bo'ladi.
|
Keras va tensorflowning o’zaro bo’g’liqligi nimada?
Ikkalasi ham yuqori darajadagi API larni taqdim etadi
Keras – bu Python-da yozilgan, Theano yoki Tensorflow-ning asosiga
qurilgan Ochiq Kodli netron tarmoq kutubxonasidir. U modulli,
tezkor va ishlatish uchun qulay holatda Google kompaniyasi
muhandisi Fransua Cholet ishlab chiqqan.
Keras – bu hisob-kitoblarni amalga oshirish uchun TensorFlow,
CNTK yoki Theano “Backend” kutubxonalaridan foydalanadigan,
yuqori darajada ishlaydigan API(application programming
interface)dir.
|
|
Neyron tuguniga kiruvchi qiymatlar qayerdan olinadi?
Sun'iy neyron tarmoqlari (ANN) yoki simulyatsiya qilingan neyron tarmoqlari (SNN) sifatida ham tanilgan neyron tarmoqlar mashinani o'rganishning bir qismi bo'lib, chuqur o'rganish algoritmlarining markazida joylashgan. Ularning nomi va tuzilishi biologik neyronlarning bir-biriga signal berish usulini taqlid qilib, inson miyasidan ilhomlangan.
Sun'iy neyron tarmoqlari (ANN) kirish qatlami, bir yoki bir nechta yashirin qatlamlar va chiqish qatlamini o'z ichiga olgan tugun qatlamlaridan iborat. Har bir tugun yoki sun'iy neyron boshqasiga ulanadi va u bilan bog'liq vazn va chegaraga ega. Agar biron bir alohida tugunning chiqishi belgilangan chegara qiymatidan yuqori bo'lsa, ushbu tugun faollashtiriladi va ma'lumotlarni tarmoqning keyingi qatlamiga yuboradi. Aks holda, tarmoqning keyingi qatlamiga hech qanday ma'lumot uzatilmaydi
Kirish qatlami aniqlangandan so'ng, og'irliklar tayinlanadi. Ushbu og'irliklar har qanday berilgan o'zgaruvchining ahamiyatini aniqlashga yordam beradi, kattaroqlari esa boshqa kirishlarga nisbatan chiqishga sezilarli hissa qo'shadi. Keyin barcha kiritilgan ma'lumotlar tegishli og'irliklarga ko'paytiriladi va keyin yig'iladi. Shundan so'ng, chiqish faollashtirish funksiyasidan o'tadi, bu chiqishni aniqlaydi. Agar ushbu chiqish belgilangan chegaradan oshsa, u tarmoqdagi keyingi qatlamga ma'lumotlarni uzatib, tugunni "yondiradi" (yoki faollashtiradi). Bu bitta tugunning chiqishi keyingi tugunning kirishiga aylanishiga olib keladi. Bir qatlamdan keyingi qatlamga ma'lumotlarni uzatish jarayoni ushbu neyron tarmoqni oldinga uzatish tarmog'i sifatida belgilaydi.
|