optuna는 딥러닝의 hyperparameter를 자동으로 최적화 해주는 툴이다. learning rate, dropout, filter 수 등 최적화 하고 싶은 parameter 들에 대해서 값의 범위를 지정하고 모델을 돌려볼 수 있다. 튜닝하고자 하는 값이 많으면 많을 수록 study 수를 늘려야 하는데, 시간이 많이 걸린다.
아래는 최적화 과정이 다 끝나고 나서 그 값을 저장하는 방법이다. 많은 시간을 들여 진행한 결과를 한꺼번에 날려 버리는 일이 없었으면 좋겠다.
# SAVE
import joblib
joblib.dump(study, "optuna_tuning_model.pkl")
# LOAD & USE
load_study = joblib.load("optuna_tuning_model.pkl")
print("Best trial until now:")
print(" Value: ", load_study.best_trial.value)
print(" Params: ")
for key, value in load_study.best_trial.params.items():
print(f" {key}: {value}")
댓글 영역