목차
CHAPTER 1 신경망 복습
__1.1 수학과 파이썬 복습
__1.2 신경망의 추론
__1.3 신경망의 학습
__1.4 신경망으로 문제를 풀다
__1.5 계산 고속화
__1.6 정리

CHAPTER 2 자연어와 단어의 분산 표현
__2.1 자연어 처리란
__2.2 시소러스
__2.3 통계 기반 기법
__2.4 통계 기반 기법 개선하기
__2.5 정리

CHAPTER 3 word2vec
 __3.1 추론 기반 기법과 신경망
__3.2 단순한 word2vec
 __3.3 학습 데이터 준비
__3.4 CBOW 모델 구현
__3.5 word2vec 보충
__3.6 정리

CHAPTER 4 word2vec 속도 개선
__4.1 word2vec 개선 ①
 __4.2 word2vec 개선 ②
 __4.3 개선판 word2vec 학습
__4.4 word2vec 남은 주제
__4.5 정리

CHAPTER 5 순환 신경망(RNN)
 __5.1 확률과 언어 모델
__5.2 RNN이란
__5.3 RNN 구현
__5.4 시계열 데이터 처리 계층 구현
__5.5 RNNLM 학습과 평가
__5.6 정리

CHAPTER 6 게이트가 추가된 RNN
 __6.1 RNN의 문제점
__6.2 기울기 소실과 LSTM
 __6.3 LSTM 구현
__6.4 LSTM을 사용한 언어 모델
__6.5 RNNLM 추가 개선
__6.6 정리

CHAPTER 7 RNN을 사용한 문장 생성
__7.1 언어 모델을 사용한 문장 생성
__7.2 seq2seq
 __7.3 seq2seq 구현
__7.4 seq2seq 개선
__7.5 seq2seq를 이용하는 애플리케이션
__7.6 정리

CHAPTER 8 어텐션
__8.1 어텐션의 구조
__8.2 어텐션을 갖춘 seq2seq 구현
__8.3 어텐션 평가
__8.4 어텐션에 관한 남은 이야기
__8.5 어텐션 응용
__8.6 정리

APPENDIX A 시그모이드 함수와 tanh 함수의 미분
__A.1 시그모이드 함수
__A.2 tanh 함수
__A.3 정리

APPENDIX B WordNet 맛보기
__B.1 NLTK 설치
__B.2 WordNet에서 동의어 얻기
__B.3 WordNet과 단어 네트워크
__B.4 WordNet을 사용한 의미 유사도

APPENDIX C GRU
 __C.1 GRU의 인터페이스
__C.2 GRU의 계산 그래프
닫기