[7주차 총정리] AutoML, Keras-tuner for Bayesisan HPO (Colab 권장)
출처: dmqm.korea.ac.kr/uploads/seminar/DMQASeminar_20210924_배포용.pdf HPO Hyper-Parameter Optimization Baysian Optimization - 기존 Trial들의 정보를 이용하여 후속 Trial의 Hyper-parameter 선택하여 불필요한 자원소모를 줄인다. 다시 말해, 앞선 정보를 활용하여 최적화 (Sequential model-based optimization) (Grid search / Random search의 경우 후속 trial은 기존 trial의 평가 정보(loss, acc)와 독립적이기에, 성능이 좋지 않았던 근처도 모두 탐색하여 계산자원을 낭비하게 되었음) - 계산비용이 상대적으로 저렴한 함수 p로 매핑을 근사..