목차
1장 서론 

2장 딥러닝 데이터와 세 가지 기본신경망
2.1 데이터의 사전정리과정
2.2 딥러닝에 사용되는 데이터의 형태
2.3 은닉층 설계를 위한 세 가지 핵심 신경망
2.3.1 MLP(multilayer perceptrons) 
 2.3.2 CNN(convolutional neural networks)
 2.3.3 RNN(recurrent neural networks)

3장 최적화와 딥러닝 모형진단
3.1 출력층과 손실함수
3.2 역전파
3.3 최적화 알고리즘
3.4 딥러닝 모형의 진단과 일반화

4장 TensorFlow 2.x와 Keras
4.1 TensorFlow 2.x의 기초 문법과 tf.keras의 설치
4.2 딥러닝 구축을 위한 3대 API
4.3 최적화를 위한 점검
4.3.1 callbacks
 4.3.2 딥러닝 모형의 시각적 점검과 학습된 모형의 저장과 재사용

5장 딥러닝 모형의 성능향상과 맞춤형 딥러닝 설계
5.1 딥러닝 모형의 성능향상
5.1.1 모수초기치
5.1.2 활성함수
5.1.3 정규화
5.1.4 Dropout
 5.1.5 기타 방법
5.2 맞춤형 딥러닝 설계
5.2.1 맞춤형 손실함수
5.2.2 맞춤형 은닉층
5.2.3 맞춤형 활성함수, 초기치, 규제화 그리고 맞춤형 딥러닝 모형

6장 CNN의 응용과 이전학습
6.1 사람의 성별을 구분하는 CNN
6.2 이전학습 I
6.3 Image Generator를 이용한 CNN과 자료증대
6.4 이전학습 II

7장 텍스트 자료에 대한 딥러닝
7.1 Word2Vec과 Glove
7.2 텍스트 자료에 특화된 Word Embedding
7.3 Word Embedding 사례분석

8장 CNN의 응용 - 자율자동차의 이미지분석
8.1 교통표식의 식별
8.2 객체분할
8.3 객체의 의미분할

9장 RNN의 적용과 응용
9.1 RNN 모형의 비교
9.2 다른 형태의 RNN 모형
9.3 딥러닝을 이용한 시계열 자료분석

10장 다중 입출력, 병렬형, 그리고 비순환 딥러닝 아키텍처
10.1 다중입력과 다중출력 딥러닝
10.2 비순환형 딥러닝 아키텍처

11장 머신번역
11.1 자료의 사전정리
11.2 sequence-to-sequence 학습
11.3 머신번역을 위한 Encoder-Decoder 아키텍처
11.4 Attention을 이용한 머신번역

12장 Autoencoder와 Variational Autoencoder
12.1 Autoencoder 모형
12.2 오염제거 autoencoder
12.3 Variational Autoencoder(VAE)

13장 Generative Adversarial Networks(GAN)
13.1 DCGAN
13.2 GAN 학습을 위한 손실함수
13.3 WGAN의 구현
13.4 LSGAN의 구현

14장 Cross-Domain GAN
14.1 CycleGAN
14.2 CIFAR10 데이터를 이용한 CycleGAN
14.3 MNIST 데이터와 SVHN 데이터를 이용한 CycleGAN
14.4 모네그림 데이터와 사진데이터를 이용한 CycleGAN
닫기