Самые известные СНС
Ниже приведен перечень самых популярных архитектур СНС.
LeNet24:
– одна из самых первых успешных архитектур СНС; – разработана Яном Лекуном;
– первоначально применялась для распознавания цифр в изображениях.
AlexNet25:
– способствовала популяризации СНС в компьютерном зрении;
– разработана Алексом Крижевским, Ильей Суцкевером и Джеффри Хин-тоном;
– победила в соревновании ILSVRC 2012.
ZF Net26:
– победила в соревновании ILSVRC 2013;
– разработана Мэттью Зейлером и Робом Фергусом;
– была предложена антисверточная сеть для визуализации.
GoogLeNet27:
– победила в соревновании ILSVRC 2014;
– разработана Кристианом Сегеди и его группой в компании Google; – кодовое название «Inception», в одном из вариантов имеются 22 слоя.
VGGNet28:
– заняла второе место в соревновании ILSVRC 2014;
– разработана Кареном Симоняном и Эндрю Циссерманом;
– продемонстрировала, что глубина сети имеет важнейшее значение для качества ее работы.
ResNet29:
– очень глубокая сеть (до 1200 слоев);
– победила в соревновании ILSVRC 2015 по классификации изображений.
Итоги
СНС появились из-за необходимости специализированного метода выделения признаков из изображений. Мы видели, что ее слои хорошо находят признаки,
LeCun et al., 1998. Gradient-based learning applied to document recognition // http://yann. lecun.com/exdb/publis/pdf/lecun-01a.pdf.
Krizhevsky, Sutskever and Hinton, 2012. ImageNet Classification with Deep Convolutional Neural Networks // https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convo lutional-neural-networks.pdf.
Zeiler and Fergus, 2013. Visualizing and Understanding Convolutional Networks // https:// arxiv.org/pdf/1311.2901v3.pdf.
Szegedy et al., 2015. Going Deeper with Convolutions // https://www.cv-foundation.org/open access/content_cvpr_2015/papers/Szegedy_Going_Deeper_With_2015_CVPR_paper.pdf.
Simonyan and Zisserman, 2015. Very Deep Convolutional Networks for Large-Scale Image Recognition // https://arxiv.org/pdf/1409.1556v6.pdf.
He et al., 2015. Deep Residual Learning for Image Recognition // https://arxiv.org/abs/1512.03385.
Рекуррентные нейронные сети 131
каких бы столбцах они ни находились. Мы видели, как сверточные слои, пулин-говые слои и обычные полносвязные слои совместно выполняют классификацию изображений. Теперь перейдем к архитектуре, предназначенной для моделиро-вания временных рядов: рекуррентным нейронным сетям.
Do'stlaringiz bilan baham: |