목차
서문 = ⅳ
이 책의 대상 독자 = ⅵ
이 책을 읽는 방법 = ⅵ
이 책의 구성 = ⅶ
감사의 말 = ⅸ
저자 소개 = ⅹ
베타 리더 추천사 = xi
책에 쓰인 수학 기호 = xiv
chapter 1 환경 설정
  1.1 윈도우에서 환경 설정하기 = 1
  1.2 맥북에서 환경 설정하기 = 10
  1.3 리눅스에서 환경 설정하기 = 13
chapter 2 머신러닝 개요
  2.1 머신러닝이란 = 17
  2.2 지도 학습 vs 비지도 학습 = 18
  2.3 머신러닝의 전반적인 과정 = 20
chapter 3 머신러닝을 위한 선형대수
  3.1 선형대수와 머신러닝의 관계 = 23
  3.2 행렬의 기초 = 23
  3.3 내적 = 33
  3.4 선형 변환 = 39
  3.5 랭크, 차원 = 40
  3.6 고윳값, 고유 벡터 = 44
  3.7 특이값 분해 = 45
  3.8 이차식 표현 = 50
  3.9 벡터의 미분 = 53
chapter 4 머신러닝을 위한 통계학
  4.1 통계학과 머신러닝의 관계 = 55
  4.2 확률 변수와 확률 분포 = 55
  4.3 모집단과 표본 = 62
  4.4 평균과 분산 = 63
  4.5 상관관계 = 68
  4.6 균일 분포 = 74
  4.7 정규 분포 = 75
  4.8 이항 분포 = 77
  4.9 최대 가능도 추정 = 79
  4.10 최대 사후 추정 = 84
chapter 5 최적화
  5.1 컨벡스 셋 = 87
  5.2 컨벡스 함수 = 93
  5.3 라그랑주 프리멀 함수 = 98
  5.4 라그랑주 듀얼 함수 = 101
  5.5 Karush-Kuhn-Tucker(KKT) 조건 = 102
  5.6 머신러닝에서의 최적화 문제 = 103
  5.7 뉴턴-랩슨 메소드 = 105
  5.8 그래디언트 디센트 옵티마이저 = 106
chapter 6 머신러닝 데이터 살펴보기
  6.1 머신러닝에 사용할 데이터 소개 = 119
  6.2 데이터 전처리 = 126
chapter 7 모형 평가
  7.1 오버피팅과 언더피팅 = 145
  7.2 크로스-밸리데이션 = 147
  7.3 파이프라인 = 149
  7.4 그리드 서치 = 152
  7.5 손실 함수와 비용 함수 = 154
  7.6 모형 성능 평가 = 159
chapter 8 지도 학습
  8.1 지도 학습 개요 = 169
  8.2 사이킷런 소개 = 170
  8.3 k-최근접 이웃 알고리즘 = 170
  8.4 선형 회귀 분석 = 177
  8.5 로지스틱 회귀 분석 = 194
  8.6 나이브 베이즈 = 202
  8.7 의사 결정 나무 = 211
  8.8 서포트 벡터 머신 = 226
  8.9 크로스 밸리데이션 실습 = 250
chapter 9 앙상블 학습
  9.1 앙상블 학습 개념 = 259
  9.2 보팅 = 259
  9.3 배깅과 랜덤 포레스트 = 266
  9.4 부스팅 = 276
  9.5 스태킹 = 294
chapter 10 차원 축소
  10.1 차원 축소 개념 = 301
  10.2 주성분 분석 = 304
  10.3 커널 PCA = 321
  10.4 LDA = 330
  10.5 LLE = 352
  10.6 비음수 행렬 분해 = 361
chapter 11 비지도 학습
  11.1 비지도 학습 개요 = 369
  11.2 K-평균 클러스터링 = 369
  11.3 계층 클러스터링 = 379
  11.4 DBSCAN = 393
  11.5 가우시안 혼합 모형 = 406
chapter 12 딥러닝
  12.1 딥러닝 소개 = 419
  12.2 퍼셉트론, 딥러닝의 기본 = 421
  12.3 인공 신경망으로 하는 딥러닝 = 429
  12.4 합성곱 신경망(CNN) = 478
  12.5 순환 신경망(RNN) = 499
  12.6 오토 인코더(Auto-Encoder) = 519
  12.7 자연어 처리 = 533
  12.8 적대적 생성 신경망(GAN) = 562
참고문헌 = 585
찾아보기 = 587
닫기