목차 일부
Chapter 1 <B><FONT color ... #0000
1.1. <B><FONT color ... #0000
1.2. 패턴인식의 처리과정 ... 6
1.3. 패턴인식의 기본 요소 ... 8
1.3.1. 데이터와 데이터 분포 ... 9
1.3.2. 특징과 특징추출 ... 11
1.3.3. 분류와 결정경계...
더보기
목차 전체
Chapter 1 <B><FONT color ... #0000
1.1. <B><FONT color ... #0000
1.2. 패턴인식의 처리과정 ... 6
1.3. 패턴인식의 기본 요소 ... 8
1.3.1. 데이터와 데이터 분포 ... 9
1.3.2. 특징과 특징추출 ... 11
1.3.3. 분류와 결정경계 ... 13
1.3.4. 분류율과 오차 ... 14
1.4. 패턴인식과 관련된 개념들 ... 16
1.4.1. 분류와 군집화 ... 16
1.4.2. 교사학습과 비교사학습 ... 17
1.4.3. 분류기 복잡도와 과다적합 ... 18
1.5. 패턴인식의 응용 ... 20
연습문제 ... 22
참고자료 ... 23
Chapter 2 패턴인식기 개발
2.1. 2차원 데이터의 분류 ... 27
2.1.1. 데이터의 생성 ... 27
2.1.2. 학습 : 데이터의 분포 특성 분석 ... 29
2.1.3. 분류 : 결정경계의 설정 ... 31
2.1.4. 성능 평가 ... 32
2.2. 숫자 데이터의 분류 ... 34
2.2.1. 데이터 수집과 전처리 ... 34
2.2.2. 학습과 결정경계 ... 37
2.2.3. 분류와 성능 평가 ... 38
연습문제 ... 40
참고자료 ... 41
Chapter 3 데이터의 통계적 분석
3.1. 데이터의 확률분포와 패턴인식 ... 45
3.2. 모수적 확률밀도 추정 ... 47
3.2.1. 최우추정법 ... 48
3.2.2. 가우시안 확률밀도함수의 최우추정 ... 49
3.3. 비모수적 확률밀도 추정 ... 53
3.3.1. 히스토그램법 ... 53
3.3.2. 히스토그램법의 일반화 ... 55
3.3.3. 커널 밀도함수 추정법 ... 57
3.4. 매트랩을 이용한 밀도함수 추정 실험 ... 60
연습문제 ... 64
참고자료 ... 66
Chapter 4 베이지안 분류기
4.1. 베이지안 분류기 ... 69
4.1.1. 우도비에 의한 패턴분류 ... 69
4.1.2. 다중 클래스 분류기 ... 72
4.2. 베이지안 분류기의 결정경계와 오차 ... 74
4.2.1. 분류기의 오류확률 ... 74
4.2.2. 최소 오류확률 결정경계 ... 76
4.2.3. 오류확률의 확장 - 베이즈 위험 ... 78
4.3. 가우시안 확률분포와 베이지안 분류기 ... 80
4.3.1. 클래스 공통 단위공분산행렬 ... 81
4.3.2. 클래스 공통 공분산행렬 ... 83
4.3.3. 일반적인 공분산행렬 ... 84
4.4. 매트랩을 이용한 베이지안 분류기 실험 ... 85
연습문제 ... 90
참고자료 ... 91
Chapter 5 K-근접이웃 분류기
5.1. K-근접이웃 분류기 ... 95
5.1.1. 비모수적 확률밀도 추정과 최근접이웃 분류기 ... 95
5.1.2. K-근접이웃(K-NN) 분류기 ... 97
5.1.3. K-NN 분류기와 비모수적 밀도추정 ... 99
5.2. K-근접이웃 분류기의 특성 ... 100
5.2.1. K-NN 분류기의 결정경계 ... 100
5.2.2. K-NN 분류기 설계시 고려사항 ... 101
5.3. 매트랩을 이용한 K-NN 분류기 실험 ... 104
연습문제 ... 109
참고자료 ... 110
Chapter 6 선형 판별함수
6.1. 판별함수와 패턴인식 ... 113
6.1.1. 판별함수의 형태 ... 113
6.1.2. 판별함수와 결정영역 ... 116
6.2. 판별함수의 학습 ... 121
6.2.1. 최소제곱법 ... 121
6.2.2. 퍼셉트론 학습 ... 124
6.3. 매트랩에 의한 선형 판별함수 분류기 실험 ... 127
연습문제 ... 129
참고자료 ... 131
Chapter 7 군집화
7.1. 분류와 군집화 ... 135
7.2. K-means 알고리즘에 의한 군집화 ... 137
7.2.1. K-means 알고리즘 ... 137
7.2.2. K-means 알고리즘의 특성 ... 139
7.3. 계층적 군집화 ... 142
7.3.1. 계층적 군집화 알고리즘 ... 142
7.3.2. 계층적 군집화의 특성 ... 144
7.4. 매트랩을 이용한 군집화 실험 ... 146
연습문제 ... 149
참고자료 ... 151
Chapter 8 특징추출
8.1. 선형변환에 의한 특징추출 ... 155
8.2. 주성분분석법 ... 159
8.2.1. 공분산 분석과 화이트닝변환 ... 159
8.2.2. 주성분분석 알고리즘 ... 163
8.2.3. 주성분분석법의 수학적 유도 ... 166
8.2.4. 주성분분석법의 특성과 문제점 ... 169
8.3. 선형판별분석법 ... 170
8.3.1. 선형판별분석 알고리즘 ... 170
8.3.2. 선형판별분석법의 특성과 문제점 ... 174
8.4. 매트랩을 이용한 특징추출 실험 ... 175
연습문제 ... 178
참고자료 ... 181
Chapter 9 패턴인식 시스템 설계
9.1. 얼굴인식 문제 ... 185
9.2. 특징추출기의 학습 ... 187
9.2.1. 영상 데이터를 위한 주성분분석 ... 187
9.2.2. PCA에 의한 특징추출 - 아이겐페이스 ... 190
9.2.3. LDA에 의한 특징추출 - 피셔페이스 ... 191
9.3. 분류기의 설계 ... 193
9.4. 매트랩에 의한 인식기 구현 ... 193
연습문제 ... 198
참고자료 ... 199
Chapter 10 가우시안 혼합 모델
10.1. 가우시안 혼합 모델 ... 203
10.1.1. 가우시안 혼합 모델의 필요성 ... 203
10.1.2. 가우시안 혼합 모델의 정의 ... 205
10.2. 가우시안 혼합 모델의 학습 ... 206
10.2.1. 최우추정법 ... 206
10.2.2. 최우추정법의 문제점 ... 211
10.3. EM 알고리즘의 적용 ... 212
10.3.1. 가우시안 혼합 모델과 은닉변수 ... 212
10.3.2. 은닉변수를 가진 확률 모델을 위한 EM 알고리즘 ... 213
10.3.3. 가우시안 혼합 모델을 위한 EM 알고리즘 ... 218
10.4. 일반화된 EM 알고리즘 ... 218
10.5. 매트랩을 이용한 가우시안 혼합 모델 추정 실험 ... 222
연습문제 ... 227
참고자료 ... 229
Chapter 11 신경망
11.1. 인공신경망 ... 233
11.1.1. 신경망이란? ... 233
11.1.2. 생물학적 신경망 ... 234
11.1.3. 인공신경망의 구성요소 ... 236
11.2. 신경망 분류기 ... 239
11.2.1. M-P 뉴런과 퍼셉트론 ... 239
11.2.2. 다층 퍼셉트론(MLP) ... 241
11.2.3. 다층 퍼셉트론의 학습 ... 243
11.2.4. 다층 퍼셉트론 학습의 고려사항 ... 250
11.3. 군집화를 위한 신경망 ... 252
11.3.1. 자기조직화 특징맵(SOM) ... 252
11.3.2. 자기조직화 특징맵의 학습 ... 255
11.4. 매트랩을 이용한 신경망 구현 ... 259
11.4.1. MLP를 이용한 패턴 분류 ... 259
11.4.2. SOM을 이용한 군집화와 특징맵 ... 263
연습문제 ... 269
참고자료 ... 271
Chapter 12 SVM과 커널법
12.1. 선형 초평면에 의한 분류 ... 275
12.1.1. 과다적합과 일반화오차 ... 275
12.1.2. 선형 초평면 분류기 ... 276
12.2. 서포트벡터머신(SVM) ... 278
12.2.1. 최대 마진 분류기 SVM ... 278
12.2.2. SVM의 학습 ... 281
12.2.3. SVM에 의한 분류 ... 284
12.3. 슬랙변수를 가진 SVM ... 286
12.3.1. 슬랙변수의 도입 ... 286
12.3.2. 파라미터의 추정 ... 288
12.4. 커널법 ... 290
12.4.1. 커널의 필요성 ... 290
12.4.2. 커널법과 SVM ... 291
12.5. 매트랩을 이용한 SVM 실험 ... 293
연습문제 ... 301
참고자료 ... 302
Chapter 13 학습기의 결합
13.1. 학습기 결합의 개요 ... 305
13.1.1. 학습기 결합의 필요성 ... 305
13.1.2. 앙상블 학습의 개요 ... 307
13.2. 배깅과 보팅 ... 310
13.2.1. 배깅에 의한 학습과 보팅에 의한 결합 ... 310
13.2.2. 배깅과 보팅의 효과 ... 311
13.3. 부스팅 ... 314
13.3.1. AdaBoost 알고리즘 ... 314
13.3.2. AdaBoost 알고리즘과 오차변화 ... 317
13.4. 캐스케이딩 ... 320
13.5. 전문가 혼합 ... 322
13.6. 매트랩을 이용한 실험 ... 324
연습문제 ... 329
참고자료 ... 330
Chapter 14 비선형 특징추출
14.1. 비선형 특징추출의 필요성 ... 333
14.2. 커널법과 특징추출 ... 335
14.2.1. 커널 PCA ... 335
14.2.2. 커널 LDA ... 343
14.3. 비선형 매니폴드 학습 ... 347
14.3.1. 매니폴드 학습 ... 347
14.3.2. MDS와 ISOMap ... 349
14.3.3. LLE(국소선형임베딩) ... 357
14.4. 매트랩을 사용한 비선형 특징추출 실험 ... 363
14.4.1. 커널 PCA와 커널 LDA의 구현 ... 363
14.4.2. ISOMap과 LLE의 구현 ... 366
연습문제 ... 372
참고자료 ... 373
Appendix A 벡터와 행렬
A.1. 벡터 ... 377
A.1.1. 벡터와 기초 연산 ... 377
A.1.2. 실수공간 Rⁿ상에서의 n차원 벡터 ... 378
A.1.3. 기저를 이용한 벡터 표현 ... 381
A.2. 행렬 ... 383
A.2.1. 행렬과 기본 연산 ... 383
A.2.2. 정방행렬 ... 385
A.2.3. 행렬의 성질 ... 387
A.2.4. 자주 사용되는 행렬 ... 389
A.3. 데이터 변환 ... 390
A.3.1. 기저행렬을 이용한 데이터 표현 ... 390
A.3.2. 선형변환 ... 392
Appendix B 확률통계
B.1. 확률론 ... 399
B.1.1. 기본 용어 ... 399
B.1.2. 결합확률과 조건부확률 ... 401
B.1.3. 독립사건과 독립시행 ... 402
B.1.4. 베이즈 정리 ... 403
B.2. 확률변수와 확률분포 ... 405
B.2.1. 확률변수 ... 405
B.2.2. 확률분포함수 ... 406
B.2.3. 확률변수의 통계량 ... 408
B.2.4. 가우시안 분포함수 ... 410
B.3. 벡터 확률변수 ... 412
B.3.1. 랜덤벡터 ... 412
B.3.2. 랜덤벡터의 확률분포함수 ... 412
B.3.3. 랜덤벡터의 통계량 ... 414
B.3.4. 다변량 가우시안 분포함수 ... 416
INDEX ... 419
더보기 닫기