Нейронную


  Глава 2. Создаем нейронную сеть на Python



Download 43,46 Mb.
Pdf ko'rish
bet128/134
Sana27.03.2022
Hajmi43,46 Mb.
#512313
1   ...   124   125   126   127   128   129   130   131   ...   134
Bog'liq
Создаем нейронную сеть ( PDFDrive )

200 
Глава 2. Создаем нейронную сеть на Python


эксперименты множество раз, чтобы исключить фактор случайности 
и влияние неудачного выбора маршрутов градиентного спуска, но 
в целом он позволяет проиллюстрировать общую идею о существова­
нии некоего оптимального значения коэффициента обучения.
Вид графика подсказывает нам, что оптимальным может быть 
значение в интервале от 0,1 до 0,3, поэтому испытаем значение 0,2. 
Показатель эффективности получится равным 0,9537. Мы видим, 
что этот результат немного лучше тех, которые мы имели при значе­
ниях коэффициента обучения, равных 0,1 или 0,3. Идею построения 
графиков вы должны взять на вооружение и в других сценариях, по­
скольку графики способствуют пониманию общих тенденций лучше, 
чем длинные числовые списки.
Итак, мы остановимся на значении коэффициента обучения 0,2, 
которое проявило себя как оптимальное для набора данных MNIST 
и нашей нейронной сети.
Кстати, если вы самостоятельно выполните этот код, то ваши оцен­
ки будут немного отличаться от приведенных здесь, поскольку процесс
Набор рукописных цифр MNIST 
201


в целом содержит элементы случайности. Ваш случайный выбор на­
чальных значений весовых коэффициентов не будет совпадать с моим, 
а потому маршрут градиентного спуска для вашего кода будет другим.
Улучшение результатов: многократное 
повторение тренировочных циклов
Нашим следующим усовершенствованием будет многократное по­
вторение циклов тренировки с одним и тем же набором данных. В от­
ношении одного тренировочного цикла иногда используют термин эпо­
ха. Поэтому сеанс тренировки из десяти эпох означает десятикратный 
прогон всего тренировочного набора данных. А зачем нам это делать? 
Особенно если для этого компьютеру потребуется 10, 20 или даже 30 
минут? Причина заключается в том, что тем самым мы обеспечиваем 
большее число маршрутов градиентного спуска, оптимизирующих ве­
совые коэффициенты.
Посмотрим, что нам дадут две тренировочные эпохи. Для этого мы 
должны немного изменить код, предусмотрев в нем дополнительный 
цикл выполнения кода тренировки. В приведенном ниже коде внеш­
ний цикл выделен цветом, чтобы сделать его более заметным.
# тренировка нейронной сети
# переменная epochs указывает, сколько раз тренировочный
# набор данных используется для тренировки сети 

Download 43,46 Mb.

Do'stlaringiz bilan baham:
1   ...   124   125   126   127   128   129   130   131   ...   134




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish