многомерная регрессионная модель (множественные входные данные и множественные выходные данные) оценка

Я использовал R-квадрат (коэффициент детерминации) и среднюю абсолютную ошибку в процентах, чтобы увидеть разницу между истинным выходным значением (скалярным) и прогнозируемым выходным значением (также скалярным), полученным из регрессионной модели.

Теперь я хочу интуитивно увидеть, насколько регрессированный результат (вектор) близок к моему истинному результату (вектору). MSE используется для обучения регрессионной модели, но трудно сказать, работает ли ваша модель в порядке или нет. Например, если истинное выходное значение само по себе очень мало (близко к нулю) и если ваш прогнозируемый результат в два раза больше, чем истинный результат, MSE будет очень мал, даже если прогноз в два раза больше, чем истинный результат.

Я искал некоторое время и нашел такие термины, как «лямбда-тест Уилка», ANOVA, MANOVA, p-значение, скорректированный R-квадрат. Но я не понял, что я могу и должен использовать.


person qubit    schedule 03.11.2018    source источник
comment
Стоит ли попробовать среднеквадратичную относительную ошибку для обучения?   -  person James Phillips    schedule 04.11.2018
comment
@JamesPhillips Хм, я так не думаю. В MAPE есть проблемы (как указано в en.wikipedia.org/wiki/Mean_absolute_percentage_error). Та же проблема может возникнуть для MSRE. Думаю, именно поэтому все используют MSE для обучения регрессионных моделей. Однако разницу между прогнозируемыми и истинными значениями трудно увидеть интуитивно при использовании MSE. Вот почему я пытался использовать MAPE или R-squared.   -  person qubit    schedule 14.11.2018


Ответы (1)


Я просто решил использовать MAPE, используя евклидово расстояние между векторами вместо абсолютного значения разницы между скалярами (прогнозируемое, истинное значение).

person qubit    schedule 14.11.2018