목차 일부
추천의 글 = 5
편저자 소개 = 7
감사의 말 = 8
옮긴이 소개 = 9
옮긴이의 말 = 10
들어가며 = 18
1부 AutoML 방법
1장 하이퍼파라미터 최적화 = 25
1.1. 서론 = 26
1.2. 문제 기술 = 27
1.2.1. 최적화에 대한 대안 : 앙상블과 한계화 = 29
1.2.2. ...
더보기
목차 전체
추천의 글 = 5
편저자 소개 = 7
감사의 말 = 8
옮긴이 소개 = 9
옮긴이의 말 = 10
들어가며 = 18
1부 AutoML 방법
1장 하이퍼파라미터 최적화 = 25
1.1. 서론 = 26
1.2. 문제 기술 = 27
1.2.1. 최적화에 대한 대안 : 앙상블과 한계화 = 29
1.2.2. 다중 목적에 대한 최적화 = 29
1.3. 블랙박스 하이퍼파라미터 최적화 = 30
1.3.1. 모델 프리 블랙박스 최적화 방법 = 30
1.3.2. 베이지안 최적화 = 32
1.4. 다중 충실도 최적화 = 38
1.4.1. 조기 종료를 위한 학습 곡선 기반의 예측 = 39
1.4.2. 밴딧 기반 알고리듬 선택 방법 = 40
1.4.3. 충실도의 적응적 선택 = 42
1.5. AutoML에의 응용 = 43
1.6. 미해결 문제와 미래 연구 방향 = 46
1.6.1. 벤치마크와 비교 가능성 = 46
1.6.2. 그래디언트 기반 최적화 = 47
1.6.3. 확장성 = 48
1.6.4. 과적합과 일반화 = 49
1.6.5. 임의 크기의 파이프라인 구축 = 50
2장 메타러닝 = 65
2.1. 서론 = 66
2.2. 모델 평가로부터 학습 = 67
2.2.1. 작업 독립 권장 = 67
2.2.2. 설정 공간 설계 = 68
2.2.3. 설정 전이 = 69
2.2.4. 학습 곡선 = 72
2.3. 작업 속성으로부터 학습 = 73
2.3.1. 메타 - 특성 = 73
2.3.2. 메타 - 특성 학습 = 74
2.3.3. 유사 작업으로부터 예열 시작 최적화 = 76
2.3.4. 메타모델 = 78
2.3.5. 파이프라인 합성 = 80
2.3.6. 조정할 것인가, 조정하지 않을 것인가 = 81
2.4. 사전 모델로부터 학습 = 81
2.4.1. 전이학습 = 82
2.4.2. 신경망으로 메타러닝 = 82
2.4.3. 소수 사례 학습 = 83
2.4.4. 지도학습을 넘어서 = 86
2.5. 결론 = 87
3장 신경망 구조 탐색 = 101
3.1. 서론 = 102
3.2. 탐색 공간 = 103
3.3. 탐색 전략 = 106
3.4. 성과 추정 전략 = 110
3.5. 미래 방향 = 113
2부 AutoML 시스템
4장 오토웨카 : 자동 모델 선택과 웨카를 활용한 하이퍼파라미터 최적화 = 123
4.1. 서론 = 124
4.2. 사전 준비 = 125
4.2.1. 모델 선택 = 126
4.2.2. 하이퍼파라미터 최적화 = 126
4.3. 알고리듬 선택과 하이퍼파라미터 최적화의 결합 = 127
4.3.1. 순차적 모델 기반 알고리듬 구성 = 129
4.4. 오토웨카 = 130
4.5. 실험 평가 = 132
4.5.1. 베이스라인 방법 = 133
4.5.2. 검증 성과 결과 = 136
4.5.3. 테스트 성과 결과 = 136
4.6. 결론 = 137
4.6.1. 커뮤니티 채택 = 138
5장 하이퍼옵트 사이킷런 = 141
5.1. 서론 = 142
5.2. 배경 : 최적화를 위한 하이퍼옵트 = 143
5.3. 검색 문제로서 사이킷런 모델 선택 = 144
5.4. 사용 예제 = 146
5.5. 실험 = 152
5.6. 논의와 미래 연구 = 154
5.7. 결론 = 157
6장 오토사이킷런 : 효율적이고 강건한 자동머신러닝 = 159
6.1. 서론 = 160
6.2. CASH 문제로서의 AutoML = 161
6.3. AutoML의 효율성과 강건성을 향상시키기 위한 새로운 방법 = 163
6.3.1. 좋은 머신러닝 프레임워크를 찾기 위한 메타러닝 = 163
6.3.2. 최적화 동안 평가된 모델의 자동 앙상블 구축 = 164
6.4. 현실적인 AutoML 시스템 = 165
6.5. 오토사이킷런의 오토웨카와 하이퍼옵트 사이킷런과의 비교 = 169
6.6. AutoML 개선안의 평가 = 171
6.7. 오토사이킷런 구성 요소의 세부 분석 = 173
6.8. 논의와 결론 = 178
6.8.1. 논의 = 178
6.8.2. 사용법 = 178
6.8.3. PoSH 오토사이킷런의 확장 = 179
6.8.4. 결론과 미래 연구 = 180
7장 딥신경망의 자동 튜닝 = 185
7.1. 서론 = 186
7.2. 오토넷 1.0 = 188
7.3. 오토넷 2.0 = 190
7.4. 실험 = 194
7.4.1. 오토넷 1.0과 오토 사이킷런의 베이스라인 평가 = 195
7.4.2. AutoML 경연 데이터셋에 대한 결과 = 196
7.4.3. 오토넷 1.0과 2.0의 비교 = 197
7.5. 결론 = 198
8장 TROP : 자동머신러닝을 위한 트리 기반 파이프라인 최적화 도구 = 205
8.1. 서론 = 206
8.2. 방법 = 206
8.2.1. 머신러닝 파이프라인 연산자 = 207
8.2.2. 트리 기반 파이프라인 구축 = 208
8.2.3. 트리 기반 파이프라인 최적화 = 208
8.2.4. 벤치마크 데이터 = 209
8.3. 결과 = 210
8.4. 결론과 미래 연구 = 214
9장 자동 통계 전문가 시스템 = 219
9.1. 서론 = 220
9.2. 자동 통계 전문가의 기본 해부 = 222
9.2.1. 관련 연구 = 222
9.3. 시계열 데이터에 대한 자동 통계 전문가 시스템 = 223
9.3.1. 커널에 대한 문법 = 223
9.3.2. 탐색과 평가 절차 = 225
9.3.3. 자연어 설명 생성 = 225
9.3.4. 인간과의 비교 = 227
9.4. 다른 자동 통계 전문가 시스템 = 228
9.4.1. 핵심 구성 요소 = 228
9.4.2. 설계에 있어서 풀어야 할 과제들 = 229
9.5. 결론 = 231
3부 AutoML 챌린지
10장 2015-2018 AutoML 챌린지 시리즈에 관한 분석 = 237
10.1. 서론 = 238
10.2. 문제 설정과 개요 = 242
10.2.1. 문제의 범위 = 242
10.2.2. 완전 모델 선택 = 242
10.2.3. 하이퍼파라미터 최적화 = 244
10.2.4. 모델 탐색 전략 = 245
10.3. 데이터 = 250
10.4. 챌린지 프로토콜 = 253
10.4.1. 시간 예산과 계산 자원 = 253
10.4.2. 점수 척도 = 254
10.4.3. 2015/2016 챌린지 라운드와 단계 = 257
10.4.4. 2018 챌린지 단계 = 259
10.5. 결과 = 259
10.5.1. 2015/2016 챌린지에서 얻은 점수 = 260
10.5.2. 2018 챌린지에서 얻은 점수 = 262
10.5.3. 데이터셋/작업의 어려움 = 263
10.5.4. 하이퍼파라미터 최적화 = 269
10.5.5. 메타러닝 = 271
10.5.6. 챌린지에서 사용된 방법들 = 273
10.6. 논의 = 278
10.7. 결론 = 279
부록 Ⅰ AutoML 최신 동향 = 289
1장 AutoML 파이프라인 개요 = 290
2장 데이터 준비 단계 = 292
2.1. 데이터 수집 = 292
2.2. 데이터 정제 = 293
2.3. 데이터 증강 = 294
3장 특성 공학 = 295
3.1. 특성 선택 = 295
3.2. 특성 구축 = 297
3.3. 특성 추출 = 297
4장 모델 생성 = 297
4.1. 구조의 탐색 공간 = 299
4.2. 구조 최적화 방법 = 307
4.3. 하이퍼파라미터 최적화 = 315
5장 모델 평가 = 318
5.1. 저충실도 = 318
5.2. 가중치 공유 = 322
5.3. 대리 모델 = 322
5.4. 조기 종료 = 323
5.5. 자원 제약 고려 = 323
6장 NAS 성과 요약 = 324
6.1. NAS 성과 비교 = 324
6.2. 1단계 대 2단계 = 327
6.3. 원샷/가중치 공유 = 328
6.4. 하이퍼파라미터와 구조의 결합 최적화 = 331
7장 해결해야 할 문제와 미래 연구 방향 = 333
7.1. 유연한 탐색 공간 = 333
7.2. 다양한 분야에의 NAS 적용 = 333
7.3. 해석성 = 334
7.4. 재현성 = 334
7.5. 강건성 = 334
7.6. 하이퍼파라미터와 구조 최적화의 결합 = 334
7.7. 완전한 AutoML 파이프라인 = 334
7.8. 평생 학습 = 335
8장 추가 정보 - NAS의 분류 = 339
부록 Ⅱ 메타러닝과 AutoML = 341
1. 메타러닝이란 무엇인가? = 341
2. 학습 알고리듬의 무엇을 학습하는가 : 그래디언트 기반 메타러닝을 중심으로 = 345
사전학습과의 비교 = 347
MAML의 구현에 있어서의 특징 = 351
실제 구현 = 354
렙타일 = 355
3. 기본 구조의 확장 = 357
3.1. 업데이트하는 법을 업데이트 = 357
3.2. 최적화 방법의 탐색 = 357
3.3. NAS와 하이퍼파라미터 탐색과의 결합 = 358
3.4. 메타러닝 프레임워크에서의 NAS = 360
3.5. 메타러닝 관점에서의 DARTS = 361
4. 결론 = 362
찾아보기 = 363
더보기 닫기