Meta psevdo teglar Hieu Pham, Zihang Dai, Qizhe Xie, Minh-Thang Luong, Quoc V. Le
1 2 Bog'liq2003.10580v4 (6)
6-jadval: Nazorat ostidagi o'rganish va Pseudo labels uchun giperparametrlar. 17
7-jadval: UDA uchun giperparametrlar. Dastlab UDA qog'ozi [ 76 ] tomonidan qilinganidan farqli o'laroq, biz UDA maqsadi uchun kattaroq partiya hajmidan foydalanmaymiz. Buning o'rniga biz belgilangan maqsad va yorliqsiz maqsad uchun bir xil partiya hajmidan foydalanamiz. Bu etiketlangan maqsad uchun ba'zi kichik partiyalar hajmini bizning hisoblash uskunamizda bo'linib bo'lmaydigan holatlardan qochish uchun.
8-jadval: Meta psevdo teglar uchun giperparametrlar. D. Meta Pseudo Label xatti-harakatlarining batafsil tahlili 3 -bo'limda ko'rdik va 4 -bo'lim Meta Pseudo Labels bir nechta tasvir tasniflash mezonlarida kuchli ishlashga olib keladi. Ushbu bo'limda biz Meta Pseudo Labels xatti-harakatlari haqida yaxshiroq ma'lumot olish uchun ko'proq cheklangan va boshqariladigan muhitlar bo'yicha Meta Pseudo Labels va tegishli asosiy ko'rsatkichlarni qo'shimcha tahlil qilamiz. D.1. Meta psevdo teglarning hissalarini vizualizatsiya qilish Meta Pseudo Labels (MPL) ning hissalarini tushunish uchun 3 -rasmda biz ImageNet-10% da turli usullarning nisbiy yutuqlarini tasavvur qilamiz ( 3.2 -bo'lim ). Rasmdan biz ikkita kuzatuvga egamiz. Birinchidan, sof nazorat ostidagi o'qituvchi uchun Meta Pseudo Labels RandAugment-dan ustundir. Biz buni Meta Pseudo Labels talaba uchun tartibga solishning yanada samarali shakli ekanligidan shubhalanamiz. Bu ImageNet-10% uchun juda muhim, bunda bizda 1000 ta sinfning har biri uchun har bir sinf uchun atigi 128 ta rasm mavjud. Ikkinchidan, UDA Supervised+MPL+Finetune’ga nisbatan 6,05% ga yaxshilanadi. Bu UDA+MPL 5,25% ni tashkil etadigan UDA dan yuqori bo'lgan daromad bilan bir xil to'p maydonchasida. UDA ning aniqligi allaqachon yuqori bo'lganligi sababli, bunday yaxshilanish juda muhim. Nihoyat, nozik sozlash UDA+MPLga nisbatan biroz yaxshilanadi. Ushbu qo'shimcha samaradorlikni oshirish Meta Pseudo Labelsning o'ziga xos afzalligi hisoblanadi, chunki talaba hech qachon etiketlangan ma'lumotlardan to'g'ridan-to'g'ri o'rganmaydi. D.2. Meta Pseudo Labels - bu samarali tartibga solish strategiyasi Ushbu maqolaning qolgan qismida yarim nazorat ostidagi o'rganish usuli sifatida Meta Pseudo Labels qo'llaniladi. Ushbu bo'limda biz Meta Pseudo Labels nazorat ostida o'rganish uchun samarali tartibga solish usuli kabi harakat qilishini ko'rsatamiz. Ushbu xatti-harakatga erishish mumkin 18
3-rasm: Meta Pseudo Labels (MPL) dagi turli komponentlarning yutuqlarini taqsimlash. Meta Pseudo Labels ning UDA ga nisbatan ortishi, garchi UDA ning RandAugmentga nisbatan oshganidan kichikroq bo'lsa ham, ahamiyatli, chunki UDA allaqachon juda kuchli. 1 -rasmdagi etiketlanmagan ma'lumotlar bilan bir xil qilish . Bunday holda, Meta Pseudo Labels yorliqlarni tekislashning moslashuvchan shakli sifatida ko'rish mumkin: o'qituvchi talaba uchun yorliqli ma'lumotlarda yumshoq yorliqlarni yaratadi, xuddi Label Smoothing modelni tartibga solish uchun qattiq yorliqlarni tekislashi kabi. Asosiy farq shundaki, Label Smoothing siyosati oʻzgarmasdir, Meta Pseudo Labelsʼdagi oʻqituvchining siyosati esa talaba samaradorligini oshirishga moslashgan. Meta Pseudo Labels ta'sirini tasdiqlash uchun biz usulni CIFAR-10-4K va SVHN-1K da Supervised Learning va Label Smoothing bilan solishtiramiz. Barcha modellar va sozlamalar 3.2 -bo'limdagi bilan bir xil , faqat biz RandAugment-dan foydalanmaymiz va biz yorliqlanmagan ma'lumotlarni bir xil etiketli ma'lumotlar to'plami bilan cheklaymiz. Ushbu tajriba uchun biz CIFAR-10-4K va SVHN-1K ni tanlaymiz, chunki Label Smoothing odatda ImageNet modellarida allaqachon qo'llaniladi. Natijalar 9 -jadvalda keltirilgan . Jadvaldan ko'rinib turibdiki, Meta Pseudo Labels CIFAR-10-4K da 83,71% va SVHN-1K da 91,89% ga erishadi. Bularning ikkalasi ham Yorliqlarni tekislash bilan va unsiz nazorat ostida oʻrganish natijasida olingan aniqlikdan ancha yaxshi. Bu Meta Pseudo Labels-da fikr-mulohazalarning muhimligini ko'rsatadi. CIFAR-10-4K SVHN-1K
9-jadval: Meta Pseudo Labels nazorat ostida o'rganish uchun tartibga solish usuli sifatida ishlatilishi mumkin. D.3. Meta psevdo yorliqlari - bu soxta teglarning tasdiqlash tarafkashligini bartaraf etish mexanizmi Ushbu bo'limda biz Meta Pseudo Labels o'qituvchining Pseudo Labelsdagi tasdiqlovchi tarafkashligini [ 2 ] hal qilishga yordam beradigan empirik dalillarni ko'rsatamiz. Shu maqsadda biz 3.2 -bo'limda CIFAR-10-4K va ImageNet-10% uchun o'tkazgan tajribalarimizdan Meta Pseudo Labels da o'qituvchi va talabaning o'qitishning aniqligini tahlil qilamiz . 4 -rasmda biz Meta Pseudo Labels-da o'qituvchi va talabaning o'quv jarayoni davomida har bir o'quv partiyasidagi aniqlik foizini chizamiz. Biz xuddi shu ma'lumotlarni boshqariladigan model uchun ham chizamiz. Rasmdan biz ikkita kuzatuvga egamiz: CIFAR-10-4K da ( 4 -rasm - Chapda) talabaning Meta Pseudo Labels bo'yicha o'qitish aniqligi Nazorat ostidagi o'rganishdagi bir xil tarmoqdan ancha past. CIFAR-10-4Kda juda kam yorliqli maʼlumotlar mavjud boʻlsa, agar oʻqituvchi nazorat ostidagi taʼlimdagi kabi tez birlashsa, u yorliqsiz maʼlumotlarga umumlashtirilmaydi va shuning uchun talabaga notoʻgʻri soxta yorliqlarni oʻrgatadi. Bundan farqli o'laroq, 4 -chap- rasmda Meta Pseudo Labels-dagi o'qituvchi va talaba ancha sekinroq birlashishini ko'rsatadi. Buni ko'rish uchun shuni yodda tutingki, Meta Pseudo Labels-da talabaning mashg'ulot aniqligi o'qituvchining pseudo yorliqlariga qanchalik mos kelishi bilan o'lchanadi. Shu sababli, Meta Pseudo Labels-dagi talabaning o'qitish aniqligi pastroq bo'lishi, talaba ko'pincha o'qituvchi namunalari bo'lgan soxta teglar bilan rozi bo'lmasligini anglatadi. Bu kelishmovchilik o'qituvchini yaxshi psevdo yorliqlarni yaratish uchun o'z vaznlarini doimiy ravishda yangilashga majbur qiladi va talabaning birlashishini qiyinlashtiradi, chunki talaba o'qituvchining o'zgaruvchan psevdo yorliqlaridan o'rganishi kerak. Bu xatti-harakat o'qituvchi va o'quvchini nazorat ostidagi o'rganish va psevdo yorliqlarda tasdiqlovchi noto'g'riligiga sabab bo'ladigan muddatidan oldin konvergentsiyadan saqlaydi. ImageNet-10% da ( 4 -rasm - o'ngda), talabaning o'qitish aniqligi pastligidan ko'rinib turibdiki, talaba o'qituvchining psevdo yorliqlari bilan ham rozi emas. Bundan tashqari, biz o'qituvchining o'qitishning aniqligi nazorat qilinadiganlarga qaraganda tezroq o'sib borishini kuzatamiz. 19
modelning aniqligi. Bizning fikrimizcha, bu talabalar uchun foydalidir, chunki ImageNet 1000 ta sinfga ega, shuning uchun talabani belgilangan ma'lumotlar to'plamida yaxshi ishlashga samarali o'rgatish uchun o'qituvchi aniqroq bo'lishi kerak. Demak, talabaning fikr-mulohazalari o‘qituvchining bilim olishi uchun ham foydalidir. Mashg'ulotlarning yuqori aniqligi tendentsiyasi faqat o'quv jarayoni oxirida o'zgaradi, bunda nazorat ostida o'qitishning o'qitish aniqligi Meta Pseudo Labels bo'yicha o'qituvchi va talabaning aniqligidan oshib ketadi. Ushbu oxirgi belgidan biz nazorat ostidagi model ImageNet-10% dagi kichik yorliqli o'quv misollari to'plamiga haddan tashqari moslashganidan shubhalanamiz, bu esa, agar ushbu nazorat ostidagi model boshqa talaba modeli uchun o'rganish uchun psevdo yorliqlarni yaratish uchun ishlatilsa, tasdiqlash noto'g'riligiga olib keladi. .
4-rasm: CIFAR-10-4,000 va ImageNet-10% da Meta Pseudo Labels va nazorat ostida o'rganishning o'quv aniqligi. Meta Pseudo Labels’dagi o‘qituvchi ham, talaba ham mashg‘ulotning aniqligi pastroq bo‘lib, ortiqcha moslashishdan samarali qochadi. D.4. O'qituvchi uchun turli xil o'qitish usullariga ega meta pseudo teglar 3 -bo'limlarda va 4 -bo'limda biz o'qituvchi UDA bilan o'qitilgan Meta Pseudo Labels natijalarini taqdim etdik. 10 -jadvalda biz yana ko'rsatamizki, CIFAR-10-4K da Meta Pseudo Labels turli xil texnikalar, jumladan Pseudo Labels [ 36 ], Mixup [ 85 ] va RandAugment bilan o'qitilgan turli o'qituvchilarga nisbatan yaxshilanadi. Ushbu natijalar Meta Pseudo Labels barcha texnikalar bilan samarali ekanligini ko'rsatadi. Bundan tashqari, natijalar shuni ko'rsatadiki, o'qituvchi uchun yaxshi o'qitish usullari yaxshi talabalarga olib keladi.
10-jadval: CIFAR-10-4,000 da WideResNet-28-2 uchun Meta Pseudo Labels aniqligi, bu erda o'qituvchi turli xil texnikalar bilan o'qitiladi. Barcha raqamlar o'rtacha std dan ortiq 10 yugurishdir. D.5. Har xil miqdordagi etiketli ma'lumotlarga ega bo'lgan meta pseudo teglar Koʻproq etiketli maʼlumotlar paydo boʻlishi bilan Meta Pseudo Labels qanchalik yaxshilanishini oʻrganamiz. Shu maqsadda biz ImageNet-dagi yorliqli misollarning 10%, 20%, 40%, 80% va 100% bilan tajriba o'tkazamiz. Biz Meta Pseudo Labelsni nazorat ostidagi o'rganish va RandAugment bilan solishtiramiz. Natijalarni 5 -rasmda chizamiz . Rasmdan ko'rinib turibdiki, Meta Pseudo Labels kamroq ma'lumotlar bilan sezilarli daromad keltiradi, ammo ko'proq etiketli ma'lumotlar mavjud bo'lganda platolar. Ushbu natija Meta Pseudo Labels past resursli tasvirlarni tasniflash muammolari uchun samaraliroq ekanligini ko'rsatadi. 20
5-rasm: Nazorat ostidagi ta'lim, RandAugment va Meta psevdo yorliqlarining turli hajmdagi etiketli misollarda ishlashi. E. Meta Pseudo Labelsning iqtisodiy versiyasi bilan natijalar Meta Pseudo Labels xotirada o'qituvchi modelini ham, talaba modelini ham saqlashni talab qiladi. Tajribalarimizda EfficientNet-L2 va EfficientNet-B6-Wide kabi katta xotiraga ega model arxitekturalari uchun bu xotira izi bizning tezlatkichlarimizdagi mavjud xotiradan 16 Gb oshadi. Biz 4 -bo'limda gibrid ma'lumotlar modeli parallelligini amalga oshirdik Bu bizga katta model arxitekturalari bilan Meta Pseudo Labels-ni ishga tushirishga imkon beradi, kelishuv sekin va qimmat o'qitish jarayonidir. Katta modellarni Meta Pseudo Labels bilan samaraliroq o'qitishga imkon berish uchun biz qisqartirilgan Meta Pseudo Labels deb nomlangan o'qituvchini misol qilish uchun yanada tejamkor muqobilni ishlab chiqamiz. Reduced Meta Pseudo Labels-da biz birinchi navbatda katta o'qituvchi T modelini konvergentsiyaga o'rgatamiz. Keyinchalik, talabaning o'quv ma'lumotlari uchun barcha maqsadli taqsimotlarni oldindan hisoblash uchun T dan foydalanamiz. Muhimi, ushbu bosqichga qadar talaba modeli xotiraga yuklanmagan, bu Meta Pseudo Labelsning katta xotira izini samarali ravishda oldini oladi. Keyin, biz qisqartirilgan o'qituvchi T 0 ni kichik va samarali tarmoq sifatida parametrlashtiramiz, masalan, ko'p qatlamli perseptron (MLP), talaba bilan birga o'qitilishi kerak. Bu qisqartirilgan o'qituvchi T 0 katta o'qituvchi T tomonidan bashorat qilingan taqsimotni kiritadi va talaba o'rganishi uchun sozlangan taqsimotni chiqaradi. Intuitiv ravishda qisqartirilgan Meta Pseudo Labels juda yaxshi ishlaydi, chunki katta o'qituvchi T juda aniq va shuning uchun qisqartirilgan o'qituvchi T 0 ning ko'p harakatlari MLP tomonidan boshqarilishi mumkin bo'lgan identifikatsiya xaritasiga yaqin bo'ladi. Ayni paytda, qisqartirilgan Meta Pseudo Labels Meta Pseudo Labels afzalliklarini saqlab qoladi, chunki o'qituvchi T 0 hali ham talabaning T o'rganish holatiga moslasha oladi . Meta Pseudo Labels ko'p sonli yorliqli misollar bilan muammolarni hal qila oladimi yoki yo'qligini baholash uchun biz endi CIFAR-10, SVHN va ImageNet to'liq etiketli to'plamlariga murojaat qilamiz. Biz CIFAR-10 va ImageNet uchun domendan tashqaridagi yorliqsiz maʼlumotlardan foydalanamiz. Biz qisqartirilgan Meta Pseudo Labels bilan tajriba o'tkazamiz, ularning xotira izlari bizning keng ko'lamli tajribalarimizni o'tkazishga imkon beradi. Biz shuni ko'rsatamizki, Meta Pseudo Labels, ya'ni talabaning o'rganishi davomida talabaning o'rganish holatiga moslashadigan o'qituvchiga ega bo'lish yanada rivojlangan arxitektura va domendan tashqarida yorliqsiz ma'lumotlarga ega bo'lgan katta ma'lumotlar to'plamiga taalluqlidir. Model arxitekturalari. Talaba modelimiz uchun biz CIFAR-10 va SVHN uchun EfficinetNet-B0 dan foydalanamiz va ImageNet uchun EfficientNet-B7 dan foydalanamiz. Ayni paytda, bizning o'qituvchi modelimiz ReLU faollashtirilgan va CIFAR-10 uchun 128 birlik va ImageNet uchun 512 birlik yashirin o'lchamli 5 qatlamli kichik perseptrondir. Belgilangan ma'lumotlar. Standart amaliyotlarga ko'ra, biz giperparametrlarni sozlash uchun CIFAR-10 ning 4 000 ta namunasini, SVHN dan 7 300 ta misolni va ImageNet ning 40 ta ma'lumotlar qismini saqlab qo'yamiz. Bu CIFAR-10 uchun 45 000 ga yaqin etiketli misollar, SVHN uchun 65 000 yorliqli misollar va ImageNet uchun 1,23 million etiketli misollar qoldiradi. 3.2 -bo'limda bo'lgani kabi , bu etiketli ma'lumotlar ham talaba uchun tekshirish ma'lumotlari, ham o'qituvchi uchun tayyorgarlikdan oldingi ma'lumotlar bo'lib xizmat qiladi. Belgilanmagan ma'lumotlar. CIFAR-10 uchun bizning yorliqsiz ma'lumotlarimiz 80 million tasvirga ega TinyImages ma'lumotlar to'plamidan olingan [ 67 ]. SVHN uchun biz 530 000 ga yaqin tasvirni o'z ichiga olgan SVHN standart o'quv to'plami bilan birga keladigan qo'shimcha tasvirlardan foydalanamiz. ImageNet uchun bizning etiketlanmagan ma'lumotlarimiz 100 million tasvirga ega YFCC-100M ma'lumotlar to'plamidan olingan [ 65 ]. Mavjud vazifalarga tegishli yorliqsiz ma'lumotlarni to'plash uchun biz TinyImages va YFCC-100M-dagi tasvirlarga sinf taqsimotlarini belgilash uchun oldindan o'rgatilgan o'qituvchidan foydalanamiz, so'ngra har bir sinf uchun eng yuqori ehtimollik bilan K tasvirni saqlaymiz. K qiymati CIFAR-10 uchun 50 000, SVHN uchun 35 000 va ImageNet uchun 12 800 ni tashkil qiladi. 21
Asosiy chiziqlar. Biz Reduced Meta Pseudo Labels ni NoisyStudent [ 77 ] bilan solishtiramiz, chunki uni to'g'ridan-to'g'ri Reduced Meta Pseudo Labels bilan solishtirish mumkin. Aslida, NoisyStudent va Reduced Meta Pseudo Labels o'rtasidagi yagona farq shundaki, Reduced Meta Pseudo Labels talabaning o'rganish holatiga moslashadigan o'qituvchiga ega.
11-jadval: CIFAR-10 va SVHN da EfficientNet-B0 va ImageNet da EfficientNet-B7 tasvir tasnifi aniqligi. Yuqoriroq yaxshi. CIFAR-10 natijalari 5 ta yugurish uchun o'rtacha std, ImageNet natijalari esa bitta yugurishning eng yaxshi 1/top-5 aniqligi. Barcha raqamlar bizning kodlar bazamizda ishlab chiqariladi va nazorat ostidagi tajribalardir. Natijalar. 11 -jadvalda ko'rsatilganidek , qisqartirilgan Meta Pseudo Labels CIFAR-10 va ImageNet-da NoisyStudent-dan ustun turadi va SVHN-dagi NoisyStudent bilan tengdir. Xususan, ImageNet-da EfficientNet-B7-ga ega Meta Pseudo Labels 86,87% birinchi birinchi aniqlikka erishadi, bu kuchli bazaviy NoisyStudentdan 1,06% yaxshiroq. CIFAR-10-da Meta Pseudo Labels NoisyStudent-da aniqlikni 0,34% ga oshirishga olib keladi, bu esa xatolarni 19% ga kamaytirishga olib keladi. SVHN uchun biz qisqartirilgan Meta Pseudo Labels daromadi ahamiyatli emasligining ikkita sababi bor deb taxmin qilamiz. Birinchidan, NoisyStudent allaqachon juda yuqori aniqlikka erishmoqda. Ikkinchidan, etiketlanmagan tasvirlar yuqori sifatli bo'lib, biz qo'lda tekshirish orqali bilamiz. Shu bilan birga, ko'plab ImageNet toifalari uchun YFCC100M dan suratlar etarli emas, shuning uchun biz past sifatli yoki domendan tashqari tasvirlarga ega bo'lamiz. Bunday shovqinli ma'lumotlarga ko'ra, Reduced Meta Pseudo Labels-ning moslashuv moslashuvi talabaning ishlashi uchun muhimroq bo'lib, yanada sezilarli daromadga olib keladi. 22 Download 307,03 Kb. Do'stlaringiz bilan baham: 1 2 Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024 ma'muriyatiga murojaat qiling |
kiriting | ro'yxatdan o'tish Bosh sahifa юртда тантана Боғда битган Бугун юртда Эшитганлар жилманглар Эшитмадим деманглар битган бодомлар Yangiariq tumani qitish marakazi Raqamli texnologiyalar ilishida muhokamadan tasdiqqa tavsiya tavsiya etilgan iqtisodiyot kafedrasi steiermarkischen landesregierung asarlaringizni yuboring o'zingizning asarlaringizni Iltimos faqat faqat o'zingizning steierm rkischen landesregierung fachabteilung rkischen landesregierung hamshira loyihasi loyihasi mavsum faolyatining oqibatlari asosiy adabiyotlar fakulteti ahborot ahborot havfsizligi havfsizligi kafedrasi fanidan bo’yicha fakulteti iqtisodiyot boshqaruv fakulteti chiqarishda boshqaruv ishlab chiqarishda iqtisodiyot fakultet multiservis tarmoqlari fanidan asosiy Uzbek fanidan mavzulari potok asosidagi multiservis 'aliyyil a'ziym billahil 'aliyyil illaa billahil quvvata illaa falah' deganida Kompyuter savodxonligi bo’yicha mustaqil 'alal falah' Hayya 'alal 'alas soloh Hayya 'alas mavsum boyicha yuklab olish |