Bog'liq Цэй Ш., Байлесчи С., и др. - JаvaScript для глубокого обучения (Библиотека программиста) - 2021
Глава 3. Вводим нелинейность: теперь не только взвешенные суммы
147 делениях натуральный логарифм заменить логарифмом по основанию 10? Как это
повлияет на обучение и вывод бинарного и многоклассового классификаторов?
6. На основе псевдокода из листинга 3.4 напишите настоящий код на JavaScript
для поиска гиперпараметров по сетке и воспользуйтесь им для оптимизации
гиперпараметров для двухслойной модели поиска цен на бостонскую недвижи
мость в листинге 3.1. А именно, подберите количество нейронов скрытого слоя
и скорость обучения. Не бойтесь экспериментировать с диапазонами для поиска
количества нейронов и скорости обучения. Обратите внимание, что специали
сты по машинному обучению для такого поиска обычно используют идущие
приблизительно в геометрической (логарифмической) прогрессии интервалы
(например, количество нейронов = 2, 5, 10, 20, 50, 100, 200...).
Резюме
z
z
Задачи классификации отличаются от задач регрессии необходимостью дис
кретных предсказаний.
z
z
Существует две разновидности классификации: бинарная и многоклассовая. При
бинарной классификации заданный входной пример может относиться к одному
из двух классов, а при многоклассовой — к трем или более.
z
z
Бинарную классификацию обычно можно рассматривать как задачу обнаруже
ния событий определенного типа или важных для нас объектов — называемых
позитивными — среди всех входных примеров данных. Благодаря этому для
количественного выражения различных аспектов поведения бинарного клас
сификатора, помимо безошибочности, можно использовать такие метрики, как
точность, полнота и FPR.
z
z
В задачах бинарной классификации зачастую приходится соблюдать баланс
между необходимостью найти все позитивные примеры данных и минимизи
ровать число ложнопозитивных результатов (ошибочных срабатываний). Для
количественного выражения и визуализации этого соотношения удобна кривая
ROC вместе с сопутствующей ей метрикой AUC.
z
z
Последний (выходной) слой нейронной сети для бинарной классификации дол
жен включать сигмафункцию активации, а в качестве функции потерь во время
обучения следует применять бинарную перекрестную энтропию.
z
z
В предназначенных для многоклассовой классификации нейронных сетях выход
ной целевой признак обычно кодируется с помощью унитарного представления.
Они должны использовать многомерную логистическую функцию активации
в выходном слое, а роль функции потерь при обучении должна играть категори
альная перекрестная энтропия.
z
z
При многоклассовой классификации матрицы различий позволяют получить
более подробную информацию о допускаемых моделью ошибках, чем дает ме
трика безошибочности.