목차
서문 ... 7
1. 서론 : 자연어의 생성단위란 무엇인가? ... 11
1. 언어에 대한 확률론적 접급방식 ... 13
2. 확률문법과 생성단위 크기의 문제 ... 14
3. 데이터 중심의 파싱 : 예제에 의한 생성 ... 16
4. 언어이해와 언어생성 ... 19
5. DOP 모델의 평가 ... 20
6. 책의 내용구성 ... 22
2. 구구조 표시를 위한 경험기반 모델 ... 25
1. 표시 ... 25
2. 부분구조 ... 26
3. 합성 연산 ... 28
4. 확률값 계산 ... 30
3. 형식 확률언어이론 ... 39
1. 확률문법의 형식언어이론 ... 39
2. 수형도 - 대치 확률문법으로서의 DOP1 ... 42
3. 수형도 - 대치 확률문법과 문맥자유확률문법의 비교 ... 44
4. 다른 확률문법들 ... 51
4.1 역사기반의 확률문법 ... 51
4.2 수형도 - 부가 어휘확률문법 ... 55
4.3 다른 어휘확률문법들 ... 56
5. 미해결의 문제들 ... 58
4. 파싱과 중의성해소 ... 59
1. 파싱 ... 59
2. 중의성해소 ... 62
2.1 Viterbi 최적화는 가장 높은 확률값을 찾는데 적용할 수 없다 ... 63
2.2 Monte Carlo 중의성해소 : 무작위 도출 샘플링에 의한 가장 높은 확률값의 분석을 예측하기 ... 65
2.3 Monte Carlo 중의성해소의 인지과학적 측면 ... 70
5. 모델의 검증 : 생성단위는 제한될 수 있는가? ... 73
1. 테스트 환경 ... 73
2. 기준선 ... 75
3. 중첩 부분구조의 영향 ... 76
4. 부분구조 크기의 영향 ... 77
5. 부분구조 어휘화의 영향 ... 78
6. 부분구조 빈도의 영향 ... 80
7. 비-머리어의 영향 ... 82
8. 도출속성의 개관 및 논의 ... 88
6. 신출어의 학습 ... 95
1. DOP2 모델 ... 96
2. DOP2의 실험 ... 97
3. 평가 : 무엇이 잘못되었는가? ... 98
4. 미등록 - 범주어의 문제 ... 106
7. 새로운 구조의 학습 ... 109
1. 미등록 구조의 문제 ... 110
2. Good-Turing : (미)출현 형태의 집단 확률값 예측 ... 112
3. 부분수형도의 빈도를 조정하기 위한 Good-Turing 방법의 사용 ... 114
4. DOP3 모델 ... 117
5. DOP3의 인지적 측면 ... 118
6. DOP3의 실험결과 ... 120
8. 합성의미표시를 위한 경험기반의 모델 ... 125
1. 의미해석의 통합 ... 125
1.1 표면합성성의 가정 ... 126
1.2 표면합성성을 가정하지 않음 : 부분주석 ... 135
1.3 DOP의 의미확률모델 ... 139
2. 담화의 최신성을 다루기 위한 DOP의 확장 ... 140
9. 음성이해 및 대화처리 ... 145
1. OVIS 코퍼스 : 합성 프레임의미로 확장된 수형도 ... 146
2. 데이터 중심의 의미분석을 위한 OVIS 코퍼스의 사용 ... 150
3. DOP를 대화맥락으로 확장하기 : 문맥 의존적 부분코퍼스 ... 152
4. DOP와 음성의 결합 ... 154
5. 실험결과 ... 157
10. 비문맥자유 표시를 위한 경험기반 모델 ... 163
1. 어휘-기능 표시를 위한 DOP 모델 ... 164
1.1 표시체계 ... 164
1.2 부분구조 ... 165
1.3 합성연산 ... 170
1.4 확률모델들 ... 174
2. LFG-DOP의 예시와 속성 ... 178
결론 : 언어학을 재고함 ... 185
참고문헌 ... 187
찾아보기 ... 203
닫기