Архитектура сверточной нейронной сети
Слой
Тип
Карт
Нейронов
Ядро
0
Входной
1
32х32
1
Свёрточный
6
28х28
5х5
2
Подвыборочный
6
14х14
2х2
3
Свёрточный
12
10х10
5х5
4
Подвыборочный
12
5х5
2х2
5
Полносвязный
80
6
Полносвязный
60
7
Полносвязный
26
Для выбранной архитектуры точ
-
ность классификации знака на обла
-
сти изображения размером 32х32 пик
-
селя составила 93,88 %.
Если на вход
подавать изображение 40х40 пикселей
(увеличив количество нейронов), то
точность классификации повышает
-
ся до 96,23 %, но увеличивается время
распознавания.
Точность классификации можно
повысить,
если изображение подвер
-
гнуть контрастному выравниванию
– для области 32х32 пикселя точность
увеличилась до 95,58 %. Однако в дан
-
ной работе было решено не приме
-
нять
метод контрастного выравнива
-
ния, так как точность классификации
95 % в рамках задачи распознавания
знаков дорожного движения является
допустимой, а дальнейшее повыше
-
ние точности ведет к снижению скоро
-
сти работы системы.
Заключение
В ходе
работы были рассмотрены
популярные инструменты для ре
-
шения задач в области технического
зрения и машинного обучения. Были
проанализированы способы локализа
-
ции и
классификации знаков дорож
-
ного движения на изображении. Для
локализации использовался метод Ви
-
олы–Джонса, он показывает высокую
скорость и точность обнаружения объ
-
ектов. Для классификации объектов
использовалась сверточная нейронная
сеть. Она показала очень хорошие ре
-
зультаты по распознаванию, а при ре
-
ализации
сети на ПЛИС могут быть
получены высокие показатели по ско
-
рости работы, что даст преимущество
перед другими способами классифи
-
кации объектов на изображении.
СПИСОК ЛИТЕРАТУРЫ
1. Документация OpenCV: Обучение классификаторов каскада Хаара. – URL: https://
docs.opencv.org/2.4.13/doc/user_guide/ug_traincascade.html
(дата
обращения:
НАУКА БЕЗ ГРАНИЦ • № 5(45) 2020
тЕХНИчЕсКИЕ НАУКИ
82
10.05.2019). – Текст : электронный.
2. Якимов, П. Предварительная обработка цифровых изображений в системах лока
-
лизации и распознавания дорожных знаков / П. Якимов. – Текст : непосредствен
-
ный // Компьютерная оптика. – 2013. – № 3. – С. 401-405.
3. Aghdam, H. A practical approach for detection and classification of traffic signs using
Convolutional Neural Networks / H. Aghdam, E. Heravi, D. Puig. – Текст : непосред
-
ственный // Robotics and Autonomous Systems. – 2016. – No. 84. – Pp. 97-112.
4. LeCun, Y. Traffic Sign Recognition with Multi-Scale Convolutional Networks / Y. LeCun,
P. Sermanet. – Текст : непосредственный // Proceedings of International Joint Conference
on Neural Networks. – 2011.
5. Shustanov, A. CNN Design for Real-Time Traffic Sign Recognition / A. Shustanov,
P. Yakimov. – Текст : непосредственный // 3rd International Conference "Information
Technology and anotechnology”. – 2017. – Pp. 25-27.
6. Yi-Qing, W. An Analysis of the Viola-Jones Face Detection Algorithm / W. Yi-Qing. –
Текст : непосредственный // Image Processing On Line. – 2014. – No. 4. – Pp. 128-148.
REFERENCES
1. Dokumentaciya OpenCV: Obuchenie klassifikatorov kaskada Haara [OpenCV
documentation: Haar cascade classifier training]. Available at: https://docs.opencv.
org/2.4.13/doc/user_guide/ug_traincascade.html (accessed 10.05.2019).
2. Yakimov P. Predvaritelnaya obrabotka cifrovyh izobrazheniy v sistemah lokalizacii i
raspoznavaniya dorozhnyh znakov [Preprocessing of digital images in system of location
and recognition of road signs].
Kompyuternaya optika, 2013, no. 3, pp. 401-405.
3. Aghdam H., Heravi E., Puig D. A practical approach for detection and classification of
traffic signs using Convolutional Neural Networks. Robotics and Autonomous Systems,
2016, no. 84, pp. 97-112.
4. LeCun Y., Sermanet P. Traffic Sign Recognition with Multi-Scale Convolutional Networks.
Proceedings of International Joint Conference on Neural Networks, 2011.
5. Shustanov A., Yakimov P. CNN Design for Real-Time Traffic Sign Recognition. 3rd
International Conference "Information Technology and anotechnology”, 2017, pp. 25-27.
6. Yi-Qing W. An Analysis of the Viola-Jones Face Detection Algorithm. Image Processing
On Line, 2014. no. 4, pp. 128-148.
Материал поступил в редакцию 23.04.2020
© Гурин В.И., 2020