지은이 소개 = 5 기술 감수자 소개 = 6 옮긴이 소개 = 7 옮긴이의 말 = 8 들어가며 = 15 1장 머신 러닝 기초 = 23 머신 러닝의 정의 = 23 경험으로부터 학습 = 25 머신 러닝 과제 = 27 훈련 데이터, 테스트 데이터, 검증 데이터 = 28 편향과 분산 = 31 scikit-learn 소개 = 34 scikit-learn 설치 = 35 pip를 사용한 설치 = 36 윈도우에 설치 = 37 우분투 16.04에 설치 = 37 맥 OS에 설치 = 37 아나콘다 설치 = 37 설치 검증 = 38 pandas, Pillow, NLTK, matplotlib 설치 = 38 요약 = 39 2장 단순 선형 회귀 = 41 단순 선형 회귀 = 42 비용 함수를 사용한 모델의 적합도 평가 = 46 단순 선형 회귀를 위한 OLS 계산 = 49 모델 평가 = 52 요약 = 54 3장 K-최근접 이웃을 이용한 분류와 회귀 = 55 k-최근접 이웃 = 55 게으른 학습과 비매개변수 모델 = 56 KNN을 사용한 분류 = 57 KNN을 사용한 회귀 = 67 특징의 크기 조절 = 70 요약 = 73 4장 특징 추출 = 75 범주형 변수에서 특징 추출 = 75 특징의 표준화 = 77 텍스트에서 특징 추출 = 78 단어 주머니 모델 = 78 불용어 필터링 = 82 형태소 추출과 어휘소 추출 = 83 tf-idf 가중치를 활용한 단어 주머니의 확장 = 87 해싱 기법을 사용한 공간효율적 특징 벡터 = 90 워드 임베딩 = 92 이미지에서 특징 추출 = 96 픽셀 강도에서 특징 추출 = 97 컨벌루션 신경망 활성화를 사용한 특징 = 99 요약 = 102 5장 단순 선형 회귀에서 다중 선형 회귀까지 = 103 다중 선형 회귀 = 104 다항 회귀 = 108 정규화 = 113 선형 회귀의 적용 = 114 데이터 탐색 = 115 적합화와 모델 평가 = 119 기울기 하강법 = 121 요약 = 127 6장 선형 회귀에서 로지스틱 회귀까지 = 129 로지스틱 회귀를 이용한 이진 분류 = 130 스팸 필터링 = 132 이진 분류기 평가 척도 = 135 정확도 = 136 정밀도와 재현율 = 138 F1 척도 계산 = 139 ROC AUC = 140 그리드 탐색을 활용한 모델 튜닝 = 142 다중 부류 분류 = 145 다중 부류 분류 성능 척도 = 150 다중 부류 분류와 문제 변환 = 151 다중 부류 분류 성능 척도 = 154 요약 = 155 7장 나이브 베이즈 = 157 베이즈 정리 = 158 생성 모델과 판별 모델 = 160 나이브 베이즈 = 161 나이브 베이즈에서의 가정 = 162 scikit-learn으로 구현한 나이브 베이즈 = 164 요약 = 169 8장 의사결정 트리를 이용한 비선형 분류와 회귀 = 171 의사결정 트리 = 172 의사결정 트리 훈련 = 174 문제 선택 = 175 정보 이득 = 179 지니 불순도 = 185 scikit-learn을 사용한 의사결정 트리 = 186 의사결정 트리의 장단점 = 189 요약 = 191 9장 의사결정 트리에서 랜덤 포레스트와 앙상블 기법까지 = 193 배깅 = 194 부스팅 = 197 스태킹 = 199 요약 = 202 10장 퍼셉트론 = 203 퍼셉트론 = 203 활성화 함수 = 205 퍼셉트론 학습 알고리즘 = 207 퍼셉트론을 이용한 이진 분류 = 207 퍼셉트론을 이용한 문서 분류 = 215 퍼셉트론의 한계 = 217 요약 = 219 11장 퍼셉트론에서 서포트 벡터 머신까지 = 221 커널과 커널 트릭 = 222 최대 마진 분류기와 서포트 벡터 = 227 scikit-learn에서 문자 분류 = 230 필기체 숫자 분류 = 230 컬러 이미지에서 문자 분류 = 234 요약 = 236 12장 퍼셉트론에서 인공지능까지 = 237 비선형 결정 경계 = 238 피드포워드와 피드백 ANN = 240 다층 퍼셉트론 = 241 다층 퍼셉트론 훈련 = 243 역전파 = 245 XOR 근사를 위한 다층 퍼셉트론의 훈련 = 250 필기체 숫자를 분류하기 위한 다층 퍼셉트론 훈련 = 253 요약 = 254 13장 K-평균 = 255 군집화 = 256 K-평균 = 258 지역 최적 값 = 264 엘보 기법을 사용한 k 값의 선택 = 265 클러스터의 평가 = 268 이미지 양자화 = 271 특징 학습을 위한 군집화 = 273 요약 = 278 14장 주성분 분석을 이용한 차원 축소 = 279 주성분 분석 = 280 분산, 공분산, 공분산 행렬 = 284 고유 벡터와 고윳값 = 286 PCA 실행 = 289 PCA를 사용한 고차원 데이터의 시각화 = 292 PCA를 사용한 얼굴 인식 = 294 요약 = 298 찾아보기 = 299