5.3.7.3. Эволюция правил обучения
Известно, что для различных архитектур и задач обучения требуются
различные алгоритмы обучения. Поиск оптимального (или почти
оптимального) правила обучения, как правило, происходит с учетом
экспертных знаний и часто - методом проб и ошибок. Поэтому весьма
перспективным
считается
развитие
автоматических
методов
оптимизации правил обучения нейронных сетей. Развитие чело-
веческих способностей к обучению от относительно слабых до весьма
сильных свидетельствует о потенциальной возможности применения
эволюционного подхода в процессе обучения искусственных ней-
ронных сетей.
Схема хромосомного представления в случае эволюции правил
обучения должна отражать динамические характеристики. Статические
параметры (такие как архитектура или значения весов сети) кодировать
значительно проще. Попытка создания универсальной схемы
представления, которая позволила бы описывать произвольные виды
динамических характеристик нейронной сети, заведомо обречена на
неудачу, поскольку предполагает неоправданно большой объем
вычислений, требуемых для просмотра всего пространства правил
обучения. По этой причине на тип динамических характеристик
обычно налагаются определенные ограничения, что позволяет выбрать
общую структуру правила обучения. Чаще всего устанавливается, что
А.Е. Кононюк Дискретно-непрерывная математика
292
для всех связей нейронной сети должно применяться одно и то же
правило обучения, которое может быть задано функцией вида
k
j
i
n
k
n
i
i
,
i
i
i
,
i
)]
t
(
x
[
)
t
(
w
j
k
k
1
1
1
1
2
1
2
1
, (*)
где
t -
время,
∆
w
- приращение веса,
j
i
x
- так называемые локальные
переменные,
k
i
i
,
i
2
1
-
вещественные коэффициенты.
Главная цель эволюции правил обучения заключается в подборе
соответствующих значений коэффициентов
k
i
i
,
i
2
1
.
С учетом большого количества компонентов уравнения (*), что может
сделать эволюцию слишком медленной и практически неэффективной,
часто вводятся дополнительные ограничения, основанные на
эвристических посылках.
Представим типовой цикл эволюции правил обучения.
1) Декодирование каждой особи текущей популяции для описания
правила обучения, которое будет использоваться в качестве алгоритма
обучения нейронных сетей.
2) Формирование множества нейронных сетей со случайно
сгенерированными архитектурами и начальными значениями весов, а
также оценивание этих сетей с учетом их обучения по правилу, по-
лученному на шаге 1, в категориях точности обучения или тестирова-
ния, длительности обучения, сложности архитектуры и т.п.
3) Расчет значения приспособленности каждой особи (закодированного
правила обучения) на основе полученной на шаге 2 оценки каждой
нейронной сети, что представляет собой своеобразный вид
взвешенного усреднения.
4) Репродукция особей с вероятностью, соответствующей их
приспособленности или рангу в зависимости от используемого метода
селекции.
5) Формирование нового поколения в результате применения таких
генетических операторов, как скрещивание, мутация и/или инверсия.
Блок-схема, иллюстрирующая эволюцию архитектур, представлена на
рис. 5.58.
А.Е. Кононюк Дискретно-непрерывная математика
293
Рис. 5.58. Блок-схема генетического алгоритма для поиска наилучшего
правила обучения (случай эволюции правил обучения).
А.Е. Кононюк Дискретно-непрерывная математика
294
Do'stlaringiz bilan baham: |