추천의 글 = 5 편저자 소개 = 7 감사의 말 = 8 옮긴이 소개 = 9 옮긴이의 말 = 10 들어가며 = 18 1부 AutoML 방법 1장 하이퍼파라미터 최적화 = 25 1.1. 서론 = 26 1.2. 문제 기술 = 27 1.2.1. 최적화에 대한 대안 : 앙상블과 한계화 = 29 1.2.2. 다중 목적에 대한 최적화 = 29 1.3. 블랙박스 하이퍼파라미터 최적화 = 30 1.3.1. 모델 프리 블랙박스 최적화 방법 = 30 1.3.2. 베이지안 최적화 = 32 1.4. 다중 충실도 최적화 = 38 1.4.1. 조기 종료를 위한 학습 곡선 기반의 예측 = 39 1.4.2. 밴딧 기반 알고리듬 선택 방법 = 40 1.4.3. 충실도의 적응적 선택 = 42 1.5. AutoML에의 응용 = 43 1.6. 미해결 문제와 미래 연구 방향 = 46 1.6.1. 벤치마크와 비교 가능성 = 46 1.6.2. 그래디언트 기반 최적화 = 47 1.6.3. 확장성 = 48 1.6.4. 과적합과 일반화 = 49 1.6.5. 임의 크기의 파이프라인 구축 = 50 2장 메타러닝 = 65 2.1. 서론 = 66 2.2. 모델 평가로부터 학습 = 67 2.2.1. 작업 독립 권장 = 67 2.2.2. 설정 공간 설계 = 68 2.2.3. 설정 전이 = 69 2.2.4. 학습 곡선 = 72 2.3. 작업 속성으로부터 학습 = 73 2.3.1. 메타 - 특성 = 73 2.3.2. 메타 - 특성 학습 = 74 2.3.3. 유사 작업으로부터 예열 시작 최적화 = 76 2.3.4. 메타모델 = 78 2.3.5. 파이프라인 합성 = 80 2.3.6. 조정할 것인가, 조정하지 않을 것인가 = 81 2.4. 사전 모델로부터 학습 = 81 2.4.1. 전이학습 = 82 2.4.2. 신경망으로 메타러닝 = 82 2.4.3. 소수 사례 학습 = 83 2.4.4. 지도학습을 넘어서 = 86 2.5. 결론 = 87 3장 신경망 구조 탐색 = 101 3.1. 서론 = 102 3.2. 탐색 공간 = 103 3.3. 탐색 전략 = 106 3.4. 성과 추정 전략 = 110 3.5. 미래 방향 = 113 2부 AutoML 시스템 4장 오토웨카 : 자동 모델 선택과 웨카를 활용한 하이퍼파라미터 최적화 = 123 4.1. 서론 = 124 4.2. 사전 준비 = 125 4.2.1. 모델 선택 = 126 4.2.2. 하이퍼파라미터 최적화 = 126 4.3. 알고리듬 선택과 하이퍼파라미터 최적화의 결합 = 127 4.3.1. 순차적 모델 기반 알고리듬 구성 = 129 4.4. 오토웨카 = 130 4.5. 실험 평가 = 132 4.5.1. 베이스라인 방법 = 133 4.5.2. 검증 성과 결과 = 136 4.5.3. 테스트 성과 결과 = 136 4.6. 결론 = 137 4.6.1. 커뮤니티 채택 = 138 5장 하이퍼옵트 사이킷런 = 141 5.1. 서론 = 142 5.2. 배경 : 최적화를 위한 하이퍼옵트 = 143 5.3. 검색 문제로서 사이킷런 모델 선택 = 144 5.4. 사용 예제 = 146 5.5. 실험 = 152 5.6. 논의와 미래 연구 = 154 5.7. 결론 = 157 6장 오토사이킷런 : 효율적이고 강건한 자동머신러닝 = 159 6.1. 서론 = 160 6.2. CASH 문제로서의 AutoML = 161 6.3. AutoML의 효율성과 강건성을 향상시키기 위한 새로운 방법 = 163 6.3.1. 좋은 머신러닝 프레임워크를 찾기 위한 메타러닝 = 163 6.3.2. 최적화 동안 평가된 모델의 자동 앙상블 구축 = 164 6.4. 현실적인 AutoML 시스템 = 165 6.5. 오토사이킷런의 오토웨카와 하이퍼옵트 사이킷런과의 비교 = 169 6.6. AutoML 개선안의 평가 = 171 6.7. 오토사이킷런 구성 요소의 세부 분석 = 173 6.8. 논의와 결론 = 178 6.8.1. 논의 = 178 6.8.2. 사용법 = 178 6.8.3. PoSH 오토사이킷런의 확장 = 179 6.8.4. 결론과 미래 연구 = 180 7장 딥신경망의 자동 튜닝 = 185 7.1. 서론 = 186 7.2. 오토넷 1.0 = 188 7.3. 오토넷 2.0 = 190 7.4. 실험 = 194 7.4.1. 오토넷 1.0과 오토 사이킷런의 베이스라인 평가 = 195 7.4.2. AutoML 경연 데이터셋에 대한 결과 = 196 7.4.3. 오토넷 1.0과 2.0의 비교 = 197 7.5. 결론 = 198 8장 TROP : 자동머신러닝을 위한 트리 기반 파이프라인 최적화 도구 = 205 8.1. 서론 = 206 8.2. 방법 = 206 8.2.1. 머신러닝 파이프라인 연산자 = 207 8.2.2. 트리 기반 파이프라인 구축 = 208 8.2.3. 트리 기반 파이프라인 최적화 = 208 8.2.4. 벤치마크 데이터 = 209 8.3. 결과 = 210 8.4. 결론과 미래 연구 = 214 9장 자동 통계 전문가 시스템 = 219 9.1. 서론 = 220 9.2. 자동 통계 전문가의 기본 해부 = 222 9.2.1. 관련 연구 = 222 9.3. 시계열 데이터에 대한 자동 통계 전문가 시스템 = 223 9.3.1. 커널에 대한 문법 = 223 9.3.2. 탐색과 평가 절차 = 225 9.3.3. 자연어 설명 생성 = 225 9.3.4. 인간과의 비교 = 227 9.4. 다른 자동 통계 전문가 시스템 = 228 9.4.1. 핵심 구성 요소 = 228 9.4.2. 설계에 있어서 풀어야 할 과제들 = 229 9.5. 결론 = 231 3부 AutoML 챌린지 10장 2015-2018 AutoML 챌린지 시리즈에 관한 분석 = 237 10.1. 서론 = 238 10.2. 문제 설정과 개요 = 242 10.2.1. 문제의 범위 = 242 10.2.2. 완전 모델 선택 = 242 10.2.3. 하이퍼파라미터 최적화 = 244 10.2.4. 모델 탐색 전략 = 245 10.3. 데이터 = 250 10.4. 챌린지 프로토콜 = 253 10.4.1. 시간 예산과 계산 자원 = 253 10.4.2. 점수 척도 = 254 10.4.3. 2015/2016 챌린지 라운드와 단계 = 257 10.4.4. 2018 챌린지 단계 = 259 10.5. 결과 = 259 10.5.1. 2015/2016 챌린지에서 얻은 점수 = 260 10.5.2. 2018 챌린지에서 얻은 점수 = 262 10.5.3. 데이터셋/작업의 어려움 = 263 10.5.4. 하이퍼파라미터 최적화 = 269 10.5.5. 메타러닝 = 271 10.5.6. 챌린지에서 사용된 방법들 = 273 10.6. 논의 = 278 10.7. 결론 = 279 부록 Ⅰ AutoML 최신 동향 = 289 1장 AutoML 파이프라인 개요 = 290 2장 데이터 준비 단계 = 292 2.1. 데이터 수집 = 292 2.2. 데이터 정제 = 293 2.3. 데이터 증강 = 294 3장 특성 공학 = 295 3.1. 특성 선택 = 295 3.2. 특성 구축 = 297 3.3. 특성 추출 = 297 4장 모델 생성 = 297 4.1. 구조의 탐색 공간 = 299 4.2. 구조 최적화 방법 = 307 4.3. 하이퍼파라미터 최적화 = 315 5장 모델 평가 = 318 5.1. 저충실도 = 318 5.2. 가중치 공유 = 322 5.3. 대리 모델 = 322 5.4. 조기 종료 = 323 5.5. 자원 제약 고려 = 323 6장 NAS 성과 요약 = 324 6.1. NAS 성과 비교 = 324 6.2. 1단계 대 2단계 = 327 6.3. 원샷/가중치 공유 = 328 6.4. 하이퍼파라미터와 구조의 결합 최적화 = 331 7장 해결해야 할 문제와 미래 연구 방향 = 333 7.1. 유연한 탐색 공간 = 333 7.2. 다양한 분야에의 NAS 적용 = 333 7.3. 해석성 = 334 7.4. 재현성 = 334 7.5. 강건성 = 334 7.6. 하이퍼파라미터와 구조 최적화의 결합 = 334 7.7. 완전한 AutoML 파이프라인 = 334 7.8. 평생 학습 = 335 8장 추가 정보 - NAS의 분류 = 339 부록 Ⅱ 메타러닝과 AutoML = 341 1. 메타러닝이란 무엇인가? = 341 2. 학습 알고리듬의 무엇을 학습하는가 : 그래디언트 기반 메타러닝을 중심으로 = 345 사전학습과의 비교 = 347 MAML의 구현에 있어서의 특징 = 351 실제 구현 = 354 렙타일 = 355 3. 기본 구조의 확장 = 357 3.1. 업데이트하는 법을 업데이트 = 357 3.2. 최적화 방법의 탐색 = 357 3.3. NAS와 하이퍼파라미터 탐색과의 결합 = 358 3.4. 메타러닝 프레임워크에서의 NAS = 360 3.5. 메타러닝 관점에서의 DARTS = 361 4. 결론 = 362 찾아보기 = 363