Вчера вечером, после многих лет посещения открытой встречи по статистическому программированию в Нью-Йорке, я имел честь выступить перед уважаемым учреждением с лекцией на тему Основы глубокого обучения, полной примеров применения этого подхода.

Мои полные слайды с вечера доступны здесь. Я прыгнул через историю машинного зрения и обработки естественного языка, а затем представил достаточно основополагающей теории глубокого обучения, чтобы облегчить интуицию, оставив акцент в течение часа на конкретных реализациях - например, записных книжках Jupyter!

Снова и снова я возвращался к этой таблице популярных библиотек глубокого обучения:

Помня об этих относительных сильных и слабых сторонах, я использовал высокоуровневый TensorFlow API TFLearn, чтобы продемонстрировать три модели глубокого обучения:

  • Simple_dnn.ipynb: максимально простая глубокая нейронная сеть
  • AlexNet.ipnyb: новаторская классика, AlexNet победила в конкурсе ImageNet Large Scale Visual Recognition Challenge (ILSVRC) в 2012 году.
  • VGGNet.ipynb: похож на AlexNet, но намного глубже, VGGNet занял второе место среди ILSVRC в 2014 году.

Впоследствии, чтобы проиллюстрировать дополнительную сложность (читай: гибкость и функциональность) собственно TensorFlow, я предоставил:

  • Deep_MNIST.ipynb: простой линейный классификатор рукописных цифр (90,9% точности) и эффективная, без излишеств, глубокая сверточная нейронная сеть (99,1% точности)

Используя главного конкурента TensorFlow Theano, я выяснил плюсы и минусы различных ключевых атрибутов глубоких сетей:

  • Network3.ipynb: долго комментируемый скрипт играет с глубокими сетевыми конфигурациями до тех пор, пока не будет достигнута достойная производительность в задаче рисованной классификации цифр (99,6% точности)

Наконец, я объяснил, что при untapt мы предпочитаем создавать глубокие нейронные сети в Keras, высокоуровневом API, который (а.) Вызывает либо TensorFlow, либо Theano, а (б.) Одновременно предлагает больше функциональности, чем у TFLearn:

  • Keras_MNIST_ConvNet.ipynb: несложная сверточная сеть, которая хорошо справляется с классификацией цифр (99,0% точности)

Большое спасибо Джареду Ландеру и его команде за то, что они приняли меня; Мне было весело! Спасибо также Эду Доннеру, Гейбу Ривс-Корбетту и Клаудии Перлич за их постоянную поддержку и ценные отзывы.

Я предоставляю исчерпывающие ресурсы для начала работы с Deep Learning на моем веб-сайте. Полностью доклад можно просмотреть здесь.

Я нанимаю инженера по данным. Подробная информация об атрибутах и ​​компенсациях находится здесь.