목차
추천의 글 = 5
편저자 소개 = 7
감사의 말 = 8
옮긴이 소개 = 9
옮긴이의 말 = 10
들어가며 = 18
1부 AutoML 방법
  1장 하이퍼파라미터 최적화 = 25
    1.1. 서론 = 26
    1.2. 문제 기술 = 27
      1.2.1. 최적화에 대한 대안 : 앙상블과 한계화 = 29
      1.2.2. 다중 목적에 대한 최적화 = 29
    1.3. 블랙박스 하이퍼파라미터 최적화 = 30
      1.3.1. 모델 프리 블랙박스 최적화 방법 = 30
      1.3.2. 베이지안 최적화 = 32
    1.4. 다중 충실도 최적화 = 38
      1.4.1. 조기 종료를 위한 학습 곡선 기반의 예측 = 39
      1.4.2. 밴딧 기반 알고리듬 선택 방법 = 40
      1.4.3. 충실도의 적응적 선택 = 42
    1.5. AutoML에의 응용 = 43
    1.6. 미해결 문제와 미래 연구 방향 = 46
      1.6.1. 벤치마크와 비교 가능성 = 46
      1.6.2. 그래디언트 기반 최적화 = 47
      1.6.3. 확장성 = 48
      1.6.4. 과적합과 일반화 = 49
      1.6.5. 임의 크기의 파이프라인 구축 = 50
  2장 메타러닝 = 65
    2.1. 서론 = 66
    2.2. 모델 평가로부터 학습 = 67
      2.2.1. 작업 독립 권장 = 67
      2.2.2. 설정 공간 설계 = 68
      2.2.3. 설정 전이 = 69
      2.2.4. 학습 곡선 = 72
    2.3. 작업 속성으로부터 학습 = 73
      2.3.1. 메타 - 특성 = 73
      2.3.2. 메타 - 특성 학습 = 74
      2.3.3. 유사 작업으로부터 예열 시작 최적화 = 76
      2.3.4. 메타모델 = 78
      2.3.5. 파이프라인 합성 = 80
      2.3.6. 조정할 것인가, 조정하지 않을 것인가 = 81
    2.4. 사전 모델로부터 학습 = 81
      2.4.1. 전이학습 = 82
      2.4.2. 신경망으로 메타러닝 = 82
      2.4.3. 소수 사례 학습 = 83
      2.4.4. 지도학습을 넘어서 = 86
    2.5. 결론 = 87
  3장 신경망 구조 탐색 = 101
    3.1. 서론 = 102
    3.2. 탐색 공간 = 103
    3.3. 탐색 전략 = 106
    3.4. 성과 추정 전략 = 110
    3.5. 미래 방향 = 113
2부 AutoML 시스템
  4장 오토웨카 : 자동 모델 선택과 웨카를 활용한 하이퍼파라미터 최적화 = 123
    4.1. 서론 = 124
    4.2. 사전 준비 = 125
      4.2.1. 모델 선택 = 126
      4.2.2. 하이퍼파라미터 최적화 = 126
    4.3. 알고리듬 선택과 하이퍼파라미터 최적화의 결합 = 127
      4.3.1. 순차적 모델 기반 알고리듬 구성 = 129
    4.4. 오토웨카 = 130
    4.5. 실험 평가 = 132
      4.5.1. 베이스라인 방법 = 133
      4.5.2. 검증 성과 결과 = 136
      4.5.3. 테스트 성과 결과 = 136
    4.6. 결론 = 137
      4.6.1. 커뮤니티 채택 = 138
  5장 하이퍼옵트 사이킷런 = 141
    5.1. 서론 = 142
    5.2. 배경 : 최적화를 위한 하이퍼옵트 = 143
    5.3. 검색 문제로서 사이킷런 모델 선택 = 144
    5.4. 사용 예제 = 146
    5.5. 실험 = 152
    5.6. 논의와 미래 연구 = 154
    5.7. 결론 = 157
  6장 오토사이킷런 : 효율적이고 강건한 자동머신러닝 = 159
    6.1. 서론 = 160
    6.2. CASH 문제로서의 AutoML = 161
    6.3. AutoML의 효율성과 강건성을 향상시키기 위한 새로운 방법 = 163
      6.3.1. 좋은 머신러닝 프레임워크를 찾기 위한 메타러닝 = 163
      6.3.2. 최적화 동안 평가된 모델의 자동 앙상블 구축 = 164
    6.4. 현실적인 AutoML 시스템 = 165
    6.5. 오토사이킷런의 오토웨카와 하이퍼옵트 사이킷런과의 비교 = 169
    6.6. AutoML 개선안의 평가 = 171
    6.7. 오토사이킷런 구성 요소의 세부 분석 = 173
    6.8. 논의와 결론 = 178
      6.8.1. 논의 = 178
      6.8.2. 사용법 = 178
      6.8.3. PoSH 오토사이킷런의 확장 = 179
      6.8.4. 결론과 미래 연구 = 180
  7장 딥신경망의 자동 튜닝 = 185
    7.1. 서론 = 186
    7.2. 오토넷 1.0 = 188
    7.3. 오토넷 2.0 = 190
    7.4. 실험 = 194
      7.4.1. 오토넷 1.0과 오토 사이킷런의 베이스라인 평가 = 195
      7.4.2. AutoML 경연 데이터셋에 대한 결과 = 196
      7.4.3. 오토넷 1.0과 2.0의 비교 = 197
    7.5. 결론 = 198
  8장 TROP : 자동머신러닝을 위한 트리 기반 파이프라인 최적화 도구 = 205
    8.1. 서론 = 206
    8.2. 방법 = 206
      8.2.1. 머신러닝 파이프라인 연산자 = 207
      8.2.2. 트리 기반 파이프라인 구축 = 208
      8.2.3. 트리 기반 파이프라인 최적화 = 208
      8.2.4. 벤치마크 데이터 = 209
    8.3. 결과 = 210
    8.4. 결론과 미래 연구 = 214
  9장 자동 통계 전문가 시스템 = 219
    9.1. 서론 = 220
    9.2. 자동 통계 전문가의 기본 해부 = 222
      9.2.1. 관련 연구 = 222
    9.3. 시계열 데이터에 대한 자동 통계 전문가 시스템 = 223
      9.3.1. 커널에 대한 문법 = 223
      9.3.2. 탐색과 평가 절차 = 225
      9.3.3. 자연어 설명 생성 = 225
      9.3.4. 인간과의 비교 = 227
    9.4. 다른 자동 통계 전문가 시스템 = 228
      9.4.1. 핵심 구성 요소 = 228
      9.4.2. 설계에 있어서 풀어야 할 과제들 = 229
    9.5. 결론 = 231
3부 AutoML 챌린지
  10장 2015-2018 AutoML 챌린지 시리즈에 관한 분석 = 237
    10.1. 서론 = 238
    10.2. 문제 설정과 개요 = 242
      10.2.1. 문제의 범위 = 242
      10.2.2. 완전 모델 선택 = 242
      10.2.3. 하이퍼파라미터 최적화 = 244
      10.2.4. 모델 탐색 전략 = 245
    10.3. 데이터 = 250
    10.4. 챌린지 프로토콜 = 253
      10.4.1. 시간 예산과 계산 자원 = 253
      10.4.2. 점수 척도 = 254
      10.4.3. 2015/2016 챌린지 라운드와 단계 = 257
      10.4.4. 2018 챌린지 단계 = 259
    10.5. 결과 = 259
      10.5.1. 2015/2016 챌린지에서 얻은 점수 = 260
      10.5.2. 2018 챌린지에서 얻은 점수 = 262
      10.5.3. 데이터셋/작업의 어려움 = 263
      10.5.4. 하이퍼파라미터 최적화 = 269
      10.5.5. 메타러닝 = 271
      10.5.6. 챌린지에서 사용된 방법들 = 273
    10.6. 논의 = 278
    10.7. 결론 = 279
부록 Ⅰ AutoML 최신 동향 = 289
  1장 AutoML 파이프라인 개요 = 290
  2장 데이터 준비 단계 = 292
    2.1. 데이터 수집 = 292
    2.2. 데이터 정제 = 293
    2.3. 데이터 증강 = 294
  3장 특성 공학 = 295
    3.1. 특성 선택 = 295
    3.2. 특성 구축 = 297
    3.3. 특성 추출 = 297
  4장 모델 생성 = 297
    4.1. 구조의 탐색 공간 = 299
    4.2. 구조 최적화 방법 = 307
    4.3. 하이퍼파라미터 최적화 = 315
  5장 모델 평가 = 318
    5.1. 저충실도 = 318
    5.2. 가중치 공유 = 322
    5.3. 대리 모델 = 322
    5.4. 조기 종료 = 323
    5.5. 자원 제약 고려 = 323
  6장 NAS 성과 요약 = 324
    6.1. NAS 성과 비교 = 324
    6.2. 1단계 대 2단계 = 327
    6.3. 원샷/가중치 공유 = 328
    6.4. 하이퍼파라미터와 구조의 결합 최적화 = 331
  7장 해결해야 할 문제와 미래 연구 방향 = 333
    7.1. 유연한 탐색 공간 = 333
    7.2. 다양한 분야에의 NAS 적용 = 333
    7.3. 해석성 = 334
    7.4. 재현성 = 334
    7.5. 강건성 = 334
    7.6. 하이퍼파라미터와 구조 최적화의 결합 = 334
    7.7. 완전한 AutoML 파이프라인 = 334
    7.8. 평생 학습 = 335
  8장 추가 정보 - NAS의 분류 = 339
부록 Ⅱ 메타러닝과 AutoML = 341
  1. 메타러닝이란 무엇인가? = 341
  2. 학습 알고리듬의 무엇을 학습하는가 : 그래디언트 기반 메타러닝을 중심으로 = 345
    사전학습과의 비교 = 347
    MAML의 구현에 있어서의 특징 = 351
    실제 구현 = 354
    렙타일 = 355
  3. 기본 구조의 확장 = 357
    3.1. 업데이트하는 법을 업데이트 = 357
    3.2. 최적화 방법의 탐색 = 357
    3.3. NAS와 하이퍼파라미터 탐색과의 결합 = 358
    3.4. 메타러닝 프레임워크에서의 NAS = 360
    3.5. 메타러닝 관점에서의 DARTS = 361
  4. 결론 = 362
찾아보기 = 363
닫기