28
Часть I • Актуальность и основные понятия
Задача
машинного
обучения
Соответствующая технология глубокого
обучения
Где в данной книге мы
решали аналогичную
задачу с помощью
TensorFlow.js
Нахождение
объектов
в изображениях
Различные варианты глубоких сверточных
нейронных сетей
1
позволили снизить
ошибку нахождения с 0,33 в 2012 году до 0,06
в 2017 году
YOLO в TensorFlow.js
(см. раздел 5.2)
Перевод
с одного
естественного
языка
на другой
Нейронный машинный перевод Google
(GMNT) снизил ошибку перевода примерно
на 60 % по сравнению с лучшими обычными
методиками машинного перевода
2
Модели преобразования
последовательностей
в последовательности с долгой
краткосрочной памятью
(LSTM) и механизмом
внимания (см. главу 9)
Распознавание
непрерывной
речи
с обширным
словарным
запасом
С помощью основанной на LSTM архитектуры
«кодировщик — внимание — декодировщик»
можно добиться более низкого отношения
количества слов к количеству ошибок, чем при
использовании лучших систем распознавания
речи без глубокого обучения
3
Распознавание непрерывной
речи с ограниченным
словарным запасом
(см. главу 9)
Генерация
правдоподобно
выглядящих
изображений
Генеративные состязательные сети (GAN)
теперь способны генерировать правдоподобно
выглядящие изображения на основе
обучающих данных (см. https://github.com/
junyanz/CycleGAN)
Генерация изображений
с помощью вариационных
автокодировщиков (VAE)
и GAN (см. главу 9)
Генерация
музыки
Рекуррентные нейронные сети (RNN) и VAE
помогают в создании музыки к фильмам
и новых звуков музыкальных инструментов
(см. https://magenta.tensorflow.org/demos)
Обучаем LSTM генерировать
текст (см. главу 9)
Обучение игре
в игры
Глубокое обучение плюс обучение
с подкреплением (RL) позволяют машинам
играть в простые игры Atari с одними
пикселами в качестве входных данных
4
.
А благодаря сочетанию глубокого обучения
и алгоритма поиска по дереву методом
МонтеКарло программа AlphaZero достигла
поистине сверхчеловеческого уровня игры
в го, просто играя сама с собой
5
Использование RL для
решения задачи управления
типа «тележка с шестом»
и реализации компьютерной
игры «Змейка» (см. главу 11)
1
Chen Y. et al.
Dual Path Networks. https://arxiv.org/pdf/1707.01629.pdf.
2
Wu Y. et al.
Google’s Neural Machine Translation System: Bridging the Gap between Human
and Machine Translation // submitted 26 Sept. 2016. https://arxiv.org/abs/1609.08144.
3
Chiu C.-C. et al.
StateoftheArt Speech Recognition with SequencetoSequence Models //
submitted 5 Dec. 2017. https://arxiv.org/abs/1712.01769.
4
Mnih V. et al.
Playing Atari with Deep Reinforcement Learning // NIPS Deep Learning Work
shop 2013. https://arxiv.org/abs/1312.5602.
5
Silver D. et al.
Mastering Chess and Shogi by SelfPlay with a General Reinforcement Learning
Algorithm // submitted 5 Dec. 2017. https://arxiv.org/abs/1712.01815.
Do'stlaringiz bilan baham: