Полная теоретическая интуиция о временных рядах и различных связанных с ними терминологиях уже опубликована в предыдущем блоге. Этот блог полностью посвящен различным моделям/методам прогнозирования временных рядов. Ниже приведены методы, которые рассматриваются в этом блоге:

Прогнозирование временных рядов с помощью методов сглаживания

  1. Экспоненциальное сглаживание
  2. Метод Холта-Уинтерса

Одномерное прогнозирование временных рядов

  1. Авторегрессия (AR)
  2. Скользящая средняя (MA)
  3. Авторегрессионная скользящая средняя (ARMA)
  4. Авторегрессионное интегрированное скользящее среднее (ARIMA)
  5. Сезонная авторегрессионная интегрированная скользящая средняя (SARIMA)

Прогнозирование временных рядов с экзогенными переменными

  1. Сезонная авторегрессионная интегрированная скользящая средняя с экзогенной регрессией (SARIMAX)
  2. Скользящая средняя векторной авторегрессии с экзогенными регрессорами (VARMAX)

Многомерное прогнозирование временных рядов

  1. Векторная авторегрессия (VAR)
  2. Скользящая средняя векторной авторегрессии (VARMA)

Экспоненциальное сглаживание:

Методы экспоненциального сглаживания представляют собой средневзвешенные значения прошлых наблюдений, при этом веса экспоненциально уменьшаются по мере того, как наблюдения становятся старше. Другими словами, чем позднее наблюдение, тем выше соответствующий вес. Он генерирует надежный прогноз быстро и для широкого диапазона временных рядов.

Простое экспоненциальное сглаживание. Этот метод подходит для прогнозирования одномерных данных временных рядов без четкой тенденции или сезонной закономерности. Метод простого экспоненциального сглаживания моделирует следующий временной шаг как экспоненциально взвешенную линейную функцию наблюдений на предыдущих временных шагах.

Для этого требуется один параметр, называемый альфа (a), также называемый коэффициентом сглаживания или коэффициентом сглаживания, который управляет скоростью, с которой влияние наблюдений на предыдущих временных шагах затухает. экспоненциально, т. е. aуправляет скоростью уменьшения весов. a часто имеет значение от 0 до 1. Большие значения означают, что модель в основном обращает внимание на самые последние прошлые наблюдения, тогда как меньшие значения означают, что при создании учитывается больше истории. прогноз. Простая математическая интерпретация временного ряда простого экспоненциального сглаживания выглядит следующим образом:

Метод Холта-Уинтерса

Первоначально в начале 1957 года Холт расширил простое экспоненциальное сглаживание, чтобы позволить прогнозировать данные с трендом. Этот метод, называемый линейным трендом Холта, включает уравнение прогноза и два уравнения сглаживания (одно для уровня и одно для тренда) с соответствующими параметрами сглаживания α и β. Позже, чтобы избежать бесконечного повторения модели тренда, был введен метод демпфированного тренда, который оказался очень успешным и наиболее популярным индивидуальным методом, когда прогнозы требуются автоматически для многих серий. Помимо двух параметров сглаживания, он включал дополнительный параметр, называемый параметром затухания ϕ.

Как только тренд стал улавливаться, Холт и Уинтерс расширили традиционный метод Холта, чтобы уловить сезонность. Сезонный метод Холта-Винтерса состоит из уравнения прогноза и трех уравнений сглаживания — одного для уровня, одного для тренда и одного для сезонной составляющей с соответствующими параметрами сглаживания α, β и γ.

Существует два варианта этого метода, отличающихся характером сезонной составляющей. Аддитивный метод предпочтительнее, когда сезонные колебания в ряду примерно постоянны, а мультипликативный метод предпочтительнее, когда сезонные колебания изменяются пропорционально уровню ряда.

Авторегрессия (AR)

В модели AR мы прогнозируем интересующую переменную, используя линейную комбинацию прошлых значений переменной. Термин авторегрессия указывает на то, что это регрессия переменной против самой себя. Простое математическое представление модели AR выглядит следующим образом:

Здесь εt — белый шум. Это напоминает множественную регрессию, но с запаздывающими значениями yt в качестве предикторов. Мы называем это моделью AR(p), авторегрессионной моделью порядка p.

Скользящее среднее (MA)

В отличие от модели AR, которая использует прошлые значения переменной прогноза в регрессии, модель MA фокусируется на прошлых ошибках прогноза или остатках в модели, подобной регрессии. Простое математическое представление модели MA выглядит следующим образом:

Здесь εt — белый шум. Мы называем это моделью MA(q), моделью скользящего среднего порядка q.

Примечание. Скользящее среднее не следует путать с расчетом скользящего среднего временного ряда, потому что это разные концепции.

Авторегрессионная скользящая средняя (ARMA)

В модели AR мы прогнозируем интересующую переменную, используя линейную комбинацию прошлых значений переменной вместе с прошлыми ошибками прогноза или остатками. Он сочетает в себе модели авторегрессии (AR) и скользящей средней (MA).

Часть AR включает в себя регрессию переменной по ее собственным запаздывающим (т. е. прошлым) значениям. Часть MA включает моделирование члена ошибки как линейной комбинации членов ошибки, возникающих одновременно и в разное время в прошлом. Обозначение модели включает указание порядка моделей AR (p) и MA (q) в качестве параметров функции ARMA, например. АРМА(р, q). Простое математическое представление модели ARMA выглядит следующим образом:

Авторегрессионное интегрированное скользящее среднее (ARIMA)

Если мы объединим разность с авторегрессией и моделью скользящего среднего, мы получим модель ARIMA. ARIMA — это аббревиатура от Авторегрессионное интегрированное скользящее среднее. Он сочетает в себе модели авторегрессии (AR) и скользящего среднего (MA), а также дифференцированный этап предварительной обработки последовательности, чтобы сделать последовательность стационарной, называемой интеграцией (I). Простое математическое представление модели ARIMA выглядит следующим образом:

где y′t – разностный ряд. «Предикторы» в правой части включают как лаговые значения, так и лаговые ошибки. Мы называем это моделью ARIMA(p,d,q).

Здесь p — порядок авторегрессионной части, d — степень задействованной первой разности, а q — порядок части скользящего среднего.

Значение графиков ACF и PACF для нахождения порядков p и q:

Чтобы найти порядок p модели AR(p): мы ожидаем, что график АКФ будет постепенно уменьшаться, и одновременно PACF должен иметь резкое падение или обрыв после p значительных задержек.

Чтобы найти порядок p модели MA(q): мы ожидаем, что график PACF будет постепенно уменьшаться, и одновременно ACF должен иметь резкое падение или обрыв после определенных q значительных задержек.

Сезонная авторегрессионная интегрированная скользящая средняя (SARIMA)

Модели ARIMA также способны моделировать широкий спектр сезонных данных. Сезонная модель ARIMA формируется путем включения в модели ARIMA дополнительных сезонных условий.

Здесь m = количество шагов в каждом временном сезоне. Мы используем запись в верхнем регистре для сезонных частей модели и запись в нижнем регистре для несезонных частей модели.

Он сочетает в себе модель ARIMA с возможностью выполнять ту же авторегрессию, дифференцирование и моделирование скользящего среднего на уровне сезонных данных.

Сезонная авторегрессионная интегрированная скользящая средняя с экзогенными регрессорами (SARIMAX)

Модель SARIMAX является расширением традиционной модели SARIMA, которое включает моделирование экзогенных переменных.

Экзогенная переменная – это переменная, значение которой определяется вне модели и навязывается модели. Их также называют ковариатами. Наблюдения за экзогенными переменными включаются в модель непосредственно на каждом временном шаге и не моделируются так же, как первичная эндогенная последовательность.

Метод SARIMAX также можно использовать для моделирования других вариантов с экзогенными переменными, такими как ARX, MAX, ARMAX и ARIMAX, путем включения экзогенной переменной.

Векторная авторегрессия (VAR)

Модель VAR представляет собой обобщение одномерной авторегрессионной модели для прогнозирования вектора временных рядов или нескольких параллельных временных рядов, например. многомерный временной ряд. Он состоит из одного уравнения на переменную в системе.

Если ряды являются стационарными, мы прогнозируем их, напрямую подгоняя VAR к данным (известный как «VAR в уровнях»). Если ряды нестационарны, мы берем различия данных, чтобы сделать их стационарными, а затем подбираем модель VAR (известную как «VAR в различиях»).

Мы называем это моделью VAR(p), векторной авторегрессионной моделью порядка p.

Скользящая средняя векторной авторегрессии (VARMA)

Метод VARMA представляет собой обобщение ARMA на несколько параллельных временных рядов, например. многомерный временной ряд. Процесс VAR конечного порядка с членом ошибки MA конечного порядка называется VARMA.

Обозначение модели включает указание порядка моделей AR (p) и MA (q) в качестве параметров функции VARMA, например. ВАРМА(р, q). Модель VARMA также можно использовать для разработки моделей VAR или VMA.

Скользящая средняя векторной авторегрессии с экзогенными регрессорами (VARMAX)

Скользящая средняя векторной авторегрессии с экзогенными регрессорами (VARMAX) является расширением модели VARMA, которое также включает моделирование экзогенных переменных. Это обобщение метода ARMAX для нескольких параллельных временных рядов, то есть многомерная версия метода ARMAX.

Экзогенная переменная – это переменная, значение которой определяется вне модели и накладывается на модель. Их также называют ковариатами. Наблюдения за экзогенными переменными включаются в модель непосредственно на каждом временном шаге и не моделируются так же, как первичная эндогенная последовательность.

Метод VARMAX также можно использовать для моделирования включенных моделей с экзогенными переменными, такими как VARX и VMAX.

Краткое содержание

В этом блоге я попытался охватить все основные методы прогнозирования, чтобы справиться с любой проблемой прогнозирования временных рядов. Описание, относящееся к каждому алгоритму, является кратким и точным, но вы можете получить более глубокие знания о любом конкретном алгоритме в соответствии со своими потребностями. Спасибо, что читаете блог! Пожалуйста, не стесняйтесь делиться любыми комментариями или отзывами.

Рекомендации

[1] Прогнозирование: принципы и практика Роба Дж. Хайндмана и Джорджа Атанасопулоса.

[2] https://www.statsmodels.org/stable/user-guide.html#time-series-analysis

[3] Джейсон Браунли, https://machinelearningmastery.com/