Краткий обзор третьего урока Fast AI

  1. Расскажите о том, как студенты размещают полезные материалы (руководства, блоги) на вики-сайте Fast AI и в других местах.
  2. Как отправить результаты на конкурс Kaggle
  3. Почему PyTorch лучше Keras
  4. Введение в сверточные нейронные сети — CNN (примеры Excel)
  5. Активация — это расчетное число, полученное после применения фильтра
    (ReLu -> MAX(0,X) в Excel)
  6. В PyTorch фильтр/ядро (чаще всего матрица 3x3 — 9 чисел) называется тензором
  7. Функция активации — это функция, которая вводит активацию и выводит активацию-› вводит число a, выводит число a (по крайней мере, в случае ReLu)
  8. Функция активации является нелинейной и имеет свою индивидуальность.
  9. Softmax — «Я хочу выбрать что-то» (поэтому не может использоваться в классификации с несколькими ярлыками)
  10. Элементы с несколькими метками — элемент, который имеет более одной метки (пример набора данных Kaggle Planet) — используйте сигмовидную функцию.
  11. Dataloader — возвращает мини-партию
  12. Несколько ключевых слов — одно закодированное в горячем режиме, data.resize (чтобы изменить размер больших изображений — поиск на быстром форуме)
  13. Дифференциальная скорость обучения (поиск на форуме fastai)
    Андрей о скорости обучения
    Визуализация скорости обучения в зависимости от размера партии
    Улучшение как мы работаем со скоростью обучения
    Циклическая скорость обучения
  14. Учебник по структурированным данным (записная книжка Россмана в курсе Fastai) — подробнее в следующем уроке