Keyin biz lstm arxitekturasini taqdim etamiz


Nuqta yo'nalishi bo'yicha operatsiya: sxema bo'yicha beshta nuqta bo'yicha operatsiya mavjud va ular uch xil



Download 15,8 Kb.
bet2/3
Sana20.07.2022
Hajmi15,8 Kb.
#826534
1   2   3
Bog'liq
Uzoq qisqa muddatli xotira

Nuqta yo'nalishi bo'yicha operatsiya: sxema bo'yicha beshta nuqta bo'yicha operatsiya mavjud va ular uch xil:
"x" yoki valflar (valfni, xotira klapanini va chiqish valfini unutish) - sxema bo'yicha nuqtalar, siz o'zingizning quvur liniyasini oqim uchun ochishingiz, yopishingiz yoki ma'lum darajada ochishingiz mumkin. Misol uchun, yuqoridagi sxemaning yuqori o'ng tomonidagi unutish valfi qatlam operatsiyasi s tomonidan boshqariladi. Ushbu sigmasimon faollashtirish funktsiyasi (0 dan 1 gacha) qaroriga asoslanib, vana ma'lum darajada yopiq, ochiq yoki yopiq bo'ladi. Agar u ochiq bo'lsa, xotira ct-1 dan ct gacha erkin oqadi. Agar u yopilgan bo'lsa, xotira uziladi va ehtimol yangi xotira quvur liniyasiga qo'shiladi, bu erda boshqa nuqta bo'yicha operatsiya tasvirlangan.
"+" - t-shaklli bo'g'in, bu erda sizda xotira o'tadi va bu bo'g'in ostidagi xotira klapan ochiq bo'lsa, qo'shimcha xotira qo'shishingiz mumkin.
"tanh" - qiymatni -1 dan 1 gacha bo'lgan oraliqda o'zgartirish uchun javobgardir (ma'lum matematik mulohazalar tufayli talab qilinadI
RNNning jozibadorliklaridan biri bu oldingi ma'lumotni hozirgi vazifaga ulashi mumkinligi haqidagi fikrdir, masalan, oldingi video kadrlardan foydalanish hozirgi kadrni tushunishga yordam beradi. Agar RNN buni qila olsa, ular juda foydali bo'lar edi. Lekin ular mumkinmi? Ga bog'liq.

Ba'zan, biz hozirgi vazifani bajarish uchun faqat oxirgi ma'lumotlarni ko'rib chiqishimiz kerak. Misol uchun, oldingi so'zlar asosida keyingi so'zni bashorat qilishga urinayotgan til modelini ko'rib chiqing. Agar biz "bulutlar osmonda" so'zining oxirgi so'zini taxmin qilmoqchi bo'lsak, bizga boshqa kontekst kerak emas - keyingi so'z osmon bo'lishi aniq. Bunday hollarda, tegishli ma'lumotlar va kerakli joy o'rtasidagi bo'shliq kichik bo'lsa, RNN o'tmishdagi ma'lumotlardan foydalanishni o'rganishi mumkin.



LSTMlar RNN bilan nimaga erishishimiz mumkin bo'lgan katta qadam edi. Ajablanish tabiiy: yana bir katta qadam bormi? Tadqiqotchilar orasida keng tarqalgan fikr: “Ha! Keyingi qadam bor va bu diqqat! ” G'oya RNN ning har bir qadamini kattaroq ma'lumotlar to'plamidan ko'rish uchun ma'lumot tanlashga imkon berishdir.
Yoki masalan, agar siz tasvirni tavsiflovchi sarlavha yaratish uchun RNN dan foydalanayotgan bo'lsangiz, u chiqadigan har bir so'zni ko'rish uchun tasvirning bir qismini tanlashi mumkin. Aslida, Xu va boshqalar. (2015) aynan shunday qiling - diqqatni o'rganishni istasangiz, bu qiziqarli boshlanish nuqtasi bo'lishi mumkin! Diqqatdan foydalangan holda bir qancha hayajonli natijalarga erishildi va ko'rinishidan yana ko'p narsa borga o'xshaydi...
Ammo ko'proq kontekstga muhtoj bo'lgan holatlar ham bor. Matndagi so'nggi so'zni taxmin qilishga urinib ko'ring: "Men Frantsiyada o'sganman ... men frantsuz tilida ravon gapiraman." So'nggi ma'lumotlarga ko'ra, keyingi so'z tilning nomi bo'lishi mumkin, ammo biz qaysi tilni toraytirmoqchi bo'lsak, bizga Frantsiya konteksti kerak. Tegishli ma'lumotlar va kerakli nuqta o'rtasidagi bo'shliq juda katta bo'lishi mumkin.
Afsuski, bu bo'shliq oshgani sayin, RNN ma'lumotlarni ulashni o'rgana
olmaydi.

-____________________________________________________


Ushbu maqolada men neyron tarmog'ining haqiqatan ham qiziqarli turini juda oddiy va tushunarli tushuntirishga harakat qilaman. Cho va boshqalar tomonidan kiritilgan. 2014 yilda GRU (Gated Recurrent Unit) standart takrorlanuvchi neyron tarmog'i bilan birga keladigan yo'qolib borayotgan gradient muammosini hal qilishga qaratilgan. GRU ni LSTM ning o'zgarishi sifatida ham ko'rib chiqish mumkin, chunki ikkalasi ham o'xshash tarzda ishlab chiqilgan va ba'zi hollarda bir xil darajada ajoyib natijalar beradi. Agar siz Recurrent Neyron Networks bilan tanish bo'lmasangiz, men qisqacha kirishimni o'qishni tavsiya qilaman. LSTM ni yaxshiroq tushunish uchun ko'pchilik Kristofer Olahning maqolasini tavsiya qiladi. Men GRU va LSTM o'rtasidagi aniq farqni ko'rsatadigan ushbu qog'ozni ham qo'shgan bo'lardim.

Download 15,8 Kb.

Do'stlaringiz bilan baham:
1   2   3




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish