Python: как извлечь лучшую модель из исследования Optuna LightGBM?

Я хотел бы получить лучшую модель, чтобы использовать ее позже в ноутбуке для прогнозирования с использованием другой партии тестов.

воспроизводимый пример (взят из Optuna Github):

import lightgbm as lgb
import numpy as np
import sklearn.datasets
import sklearn.metrics
from sklearn.model_selection import train_test_split

import optuna


# FYI: Objective functions can take additional arguments
# (https://optuna.readthedocs.io/en/stable/faq.html#objective-func-additional-args).
def objective(trial):
    data, target = sklearn.datasets.load_breast_cancer(return_X_y=True)
    train_x, valid_x, train_y, valid_y = train_test_split(data, target, test_size=0.25)
    dtrain = lgb.Dataset(train_x, label=train_y)
    dvalid = lgb.Dataset(valid_x, label=valid_y)

    param = {
        "objective": "binary",
        "metric": "auc",
        "verbosity": -1,
        "boosting_type": "gbdt",
        "lambda_l1": trial.suggest_loguniform("lambda_l1", 1e-8, 10.0),
        "lambda_l2": trial.suggest_loguniform("lambda_l2", 1e-8, 10.0),
        "num_leaves": trial.suggest_int("num_leaves", 2, 256),
        "feature_fraction": trial.suggest_uniform("feature_fraction", 0.4, 1.0),
        "bagging_fraction": trial.suggest_uniform("bagging_fraction", 0.4, 1.0),
        "bagging_freq": trial.suggest_int("bagging_freq", 1, 7),
        "min_child_samples": trial.suggest_int("min_child_samples", 5, 100),
    }

    # Add a callback for pruning.
    pruning_callback = optuna.integration.LightGBMPruningCallback(trial, "auc")
    gbm = lgb.train(
        param, dtrain, valid_sets=[dvalid], verbose_eval=False, callbacks=[pruning_callback]
    )

    preds = gbm.predict(valid_x)
    pred_labels = np.rint(preds)
    accuracy = sklearn.metrics.accuracy_score(valid_y, pred_labels)
    return accuracy

Насколько я понимаю, приведенное ниже исследование настроит на точность. Я хотел бы каким-то образом извлечь лучшую модель из исследования (а не только параметры), не сохраняя ее как рассол, я просто хочу использовать модель где-нибудь еще в моем блокноте.


if __name__ == "__main__":
    study = optuna.create_study(
        pruner=optuna.pruners.MedianPruner(n_warmup_steps=10), direction="maximize"
    )
    study.optimize(objective, n_trials=100)

    print("Best trial:")
    trial = study.best_trial

    print("  Params: ")
    for key, value in trial.params.items():
        print("    {}: {}".format(key, value))

желаемый результат будет

best_model = ~model from above~
new_target_pred = best_model.predict(new_data_test)
metrics.accuracy_score(new_target_test, new__target_pred)


person HarriS    schedule 02.06.2020    source источник


Ответы (3)


Я думаю, вы можете использовать аргумент callback в Study.optimize , чтобы сохранить лучшую модель. В следующем примере кода обратный вызов проверяет, соответствует ли данное испытание наилучшему испытанию, и сохраняет модель как глобальную переменную best_booster.

best_booster = None
gbm = None

def objective(trial):
    global gbm
    # ...

def callback(study, trial):
    global best_booster
    if study.best_trial == trial:
        best_booster = gbm

if __name__ == "__main__":
    study = optuna.create_study(
        pruner=optuna.pruners.MedianPruner(n_warmup_steps=10), direction="maximize"
    )
    study.optimize(objective, n_trials=100, callbacks=[callback])

Если вы определяете свою целевую функцию как класс, вы можете удалить глобальные переменные. Я создал блокнот в качестве примера кода. Взгляните на это: https://colab.research.google.com/drive/1ssjXp74bJ8bCAbvXFOC4EIycBto_ONp_?usp=sharing

Я хотел бы как-то извлечь лучшую модель из исследования (а не только параметры), не сохраняя ее как рассол

К вашему сведению, если вы можете обработать бустеры, я думаю, вы можете упростить код, выполнив этот FAQ.

person Toshihiko Yanase    schedule 03.06.2020

Краткое добавление к ответу @Toshihiko Yanase, потому что условие study.best_trial==trial никогда не было истинным для меня. Это было даже в том случае, когда оба объекта (Frozen) Trial имели одинаковое содержимое, поэтому, скорее всего, это ошибка в Optuna. Изменение условия на study.best_trial.number==trial.number решает проблему для меня.

Кроме того, если вы предпочитаете не использовать глобальные переменные в Python, вы можете использовать атрибуты пользователя для исследования и пробной версии.

def objective(trial):
    gmb = ...
    trial.set_user_attr(key="best_booster", value=gbm)

def callback(study, trial):
    if study.best_trial.number == trial.number:
        study.set_user_attr(key="best_booster", value=trial.user_attrs["best_booster"])


if __name__ == "__main__":
    study = optuna.create_study(
        pruner=optuna.pruners.MedianPruner(n_warmup_steps=10), direction="maximize"
    )
    study.optimize(objective, n_trials=100, callbacks=[callback])
    best_model=study.user_attrs["best_booster"]
person avinashpancham    schedule 11.08.2020
comment
Я могу подтвердить, что ваше решение также работает с xgboost, я проверяю его сравнением показателей потерь после получения de best_model через best_model = study.user_attrs [best_booster]. Замечательное спасибо вам обоим, ребята. - person Mehmet Burak Sayıcı; 25.12.2020

Я знаю, что на это уже был дан ответ, есть простой способ сделать это с помощью интеграции lightgbmtuner optuna-lightgbm, выпущенной в конце 2020 года.

Короче говоря, вы можете выполнить то, что хотите, то есть сохранить лучший бустер следующим образом

import optuna.integration.lightgbm as lgb

dtrain = lgb.Dataset(X,Y,categorical_feature = 'auto')

params = {
"objective": "binary",
"metric": "auc",
"verbosity": -1,
"boosting_type": "gbdt",
}

tuner = lgb.LightGBMTuner(
     params, dtrain, verbose_eval=100, early_stopping_rounds=1000, 
  model_dir= 'directory_to_save_boosters'
)

tuner.run()

Обратите внимание, что здесь главное указать каталог model_dir для сохранения моделей на каждой из итераций.

Обычно нет необходимости в обратном вызове сокращения, поскольку оптимизация выполняется с использованием комбинации байесовских методов и экспертных эвристик, а поиск обычно завершается примерно за 60-64 итераций.

Затем вы можете получить лучшую модель из каталога моделей, который вы указали выше, используя одну строку

tuner.get_best_booster()
person AviS    schedule 03.03.2021