[PYTHON] Anpassen der LightGBM-Parameter mit Optuna

Referenz

https://tech.preferred.jp/ja/blog/hyperparameter-tuning-with-optuna-integration-lightgbm-tuner/

Optuna installieren

pip install optuna

Parametersuche

import optuna

def objective(trial):
    #x_train, y_train, x_test, y_Test vorbereiten

    dtrain = lgb.Dataset(x_train, label=y_train)
 
    param = {
        'objective': 'binary',
        'metric': 'binary_logloss',
        'lambda_l1': trial.suggest_loguniform('lambda_l1', 1e-8, 10.0),
        'lambda_l2': trial.suggest_loguniform('lambda_l2', 1e-8, 10.0),
        'num_leaves': trial.suggest_int('num_leaves', 2, 256),
        'feature_fraction': trial.suggest_uniform('feature_fraction', 0.4, 1.0),
        'bagging_fraction': trial.suggest_uniform('bagging_fraction', 0.4, 1.0),
        'bagging_freq': trial.suggest_int('bagging_freq', 1, 7),
        'min_child_samples': trial.suggest_int('min_child_samples', 5, 100),
    }
 
    gbm = lgb.train(param, dtrain)
    preds = gbm.predict(x_test)
    pred_labels = np.rint(preds)
    
    #pred_Etiketten und y_Berechnen Sie den Bewertungswert mit Test

    return precision #Diesmal Parametersuche mit Präzision
 
study = optuna.create_study(direction='maximize')
study.optimize(objective, n_trials=100)
 
print('Number of finished trials:', len(study.trials))
print('Best trial:', study.best_trial.params)

Recommended Posts

Anpassen der LightGBM-Parameter mit Optuna
Optimieren Sie RF oder lightGBM mit Optuna
Versuchen Sie die Funktionsoptimierung mit Optuna
Reproduzieren Sie LightGBM Objective mit Python
Hyperparameter-Tuning mit LightGBM-Tuner
Optimieren von Keras-Parametern mit Keras Tuner
4. Kreisparameter mit einem neuronalen Netzwerk!
Erstellen Sie mit BERT + LightGBM + optuna ganz einfach ein Modell für die Verarbeitung natürlicher Sprache
Funktionsparameter nur für Stern '*'
Ich habe versucht, LightGBM mit Yellowbrick zu lernen
Effiziente Suche nach optimalen Parametern (Optuna)