Область под кривой точности-отзыва для DecisionTreeClassifier представляет собой квадрат.

Я использую DecisionTreeClassifier из scikit-learn для классификации некоторых данных. Я также использую другие алгоритмы и для их сравнения использую площадь под метрикой точности-отзыва. Проблема в том, что форма AUPRC для DecisionTreeClassifier представляет собой квадрат, а не обычную форму, которую можно было бы ожидать для этой метрики.

Вот как я рассчитываю AUPRC для DecisionTreeClassifier. У меня возникли проблемы с расчетом этого, потому что DecisionTreeClassifer не имеет decision_function(), как другие классификаторы, такие как LogisticRegression

Это результаты, которые я получил для AUPRC SVM, логистической регрессии и DecisionTreeClassifier.

Вот как я рассчитываю AUPRC для DecisionTreeClassifier

def execute(X_train, y_train, X_test, y_test):
    tree = DecisionTreeClassifier(class_weight='balanced')
    tree_y_score = tree.fit(X_train, y_train).predict(X_test)

    tree_ap_score = average_precision_score(y_test, tree_y_score)

    precision, recall, _ = precision_recall_curve(y_test, tree_y_score)
    values = {'ap_score': tree_ap_score, 'precision': precision, 'recall': recall}
    return values

Вот как я рассчитываю AUPRC для SVM:

def execute(X_train, y_train, X_test, y_test):
    svm = SVC(class_weight='balanced')
    svm.fit(X_train, y_train.values.ravel())
    svm_y_score = svm.decision_function(X_test)

    svm_ap_score = average_precision_score(y_test, svm_y_score)

    precision, recall, _ = precision_recall_curve(y_test, svm_y_score)
    values = {'ap_score': svm_ap_score, 'precision': precision, 'recall': recall}
    return values

Вот как я рассчитываю AUPRC для LogisticRegression:

def execute(X_train, y_train, X_test, y_test):
    lr = LogisticRegression(class_weight='balanced')
    lr.fit(X_train, y_train.values.ravel())
    lr_y_score = lr.decision_function(X_test)

    lr_ap_score = average_precision_score(y_test, lr_y_score)

    precision, recall, _ = precision_recall_curve(y_test, lr_y_score)
    values = {'ap_score': lr_ap_score, 'precision': precision, 'recall': recall}
    return values

Затем я называю их методами и рисую результаты следующим образом:

import LogReg_AP_Harness as lrApTest
import SVM_AP_Harness as svmApTest
import DecTree_AP_Harness as dtApTest
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import label_binarize
import matplotlib.pyplot as plt


def do_work(df):
    X = df.ix[:, df.columns != 'Class']
    y = df.ix[:, df.columns == 'Class']

    y_binarized = label_binarize(y, classes=[0, 1])
    n_classes = y_binarized.shape[1]

    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.3, random_state=0)

    _, _, y_train_binarized, y_test_binarized = train_test_split(X, y_binarized, test_size=.3, random_state=0)

    print('Executing Logistic Regression')
    lr_values = lrApTest.execute(X_train, y_train, X_test, y_test)
    print('Executing Decision Tree')
    dt_values = dtApTest.execute(X_train, y_train_binarized, X_test, y_test_binarized)
    print('Executing SVM')
    svm_values = svmApTest.execute(X_train, y_train, X_test, y_test)

    plot_aupr_curves(lr_values, svm_values, dt_values)


def plot_aupr_curves(lr_values, svm_values, dt_values):
    lr_ap_score = lr_values['ap_score']
    lr_precision = lr_values['precision']
    lr_recall = lr_values['recall']

    svm_ap_score = svm_values['ap_score']
    svm_precision = svm_values['precision']
    svm_recall = svm_values['recall']

    dt_ap_score = dt_values['ap_score']
    dt_precision = dt_values['precision']
    dt_recall = dt_values['recall']

    plt.step(svm_recall, svm_precision, color='g', alpha=0.2,where='post')
    plt.fill_between(svm_recall, svm_precision, step='post', alpha=0.2, color='g')

    plt.step(lr_recall, lr_precision, color='b', alpha=0.2, where='post')
    plt.fill_between(lr_recall, lr_precision, step='post', alpha=0.2, color='b')

    plt.step(dt_recall, dt_precision, color='r', alpha=0.2, where='post')
    plt.fill_between(dt_recall, dt_precision, step='post', alpha=0.2, color='r')

    plt.xlabel('Recall')
    plt.ylabel('Precision')
    plt.ylim([0.0, 1.05])
    plt.xlim([0.0, 1.0])
    plt.title('SVM (Green): Precision-Recall curve: AP={0:0.2f}'.format(svm_ap_score) + '\n' +
              'Logistic Regression (Blue): Precision-Recall curve: AP={0:0.2f}'.format(lr_ap_score) + '\n' +
              'Decision Tree (Red): Precision-Recall curve: AP={0:0.2f}'.format(dt_ap_score))
    plt.show()

В методе do_work() мне пришлось преобразовать в двоичную форму y, потому что DecisionTreeClassifier не имеет descision_function(). У меня был подход из здесь.

Это сюжет:

Участок AUPRC

Я предполагаю, что это сводится к тому, что я неправильно вычисляю AUPRC для DecisionTreeClassifier.


person cod3min3    schedule 03.04.2018    source источник


Ответы (1)


Для DecisionTreeClassifier замените predict на pred_proba; последний выполняет ту же роль, что и decision_function.

person Wei Zhang    schedule 03.04.2018
comment
Спасибо, Вэй. Для всех, кто сталкивался с этим, мне также пришлось установить атрибут max_depth. Дополнительную информацию можно найти здесь - person cod3min3; 03.04.2018