목차
반응형
딥러닝 학습 과정
모델에 데이터가 들어감 → 모델이 예측 → 정답(레이블)이 예측한 것과 얼마나 틀린지 확인 → 틀린 정도를 최소화하기 위한 작업 진행 → 모델에 다시 적용
딥러닝 용어
- Model
- 모델안에서 예측, 특징 뽑아내는 것이 이루어짐 - Layer
- 여러 층을 쌓았다고 해서 딥러닝
- 어떻게 쌓는 지 중요
- input layer
- hidden layers
- output layer
- 모델 VGG16에서 16은 layer의 수를 의미 - convolution
- CNN에서 C가 Convolution => 한국어로 합성곱이라는 뜻
- 이미지가 있으면 필터를 받아서 이미지와 필터를 곱한다. 이미지의 특징을 딴 결과가 나옴 => 카메라 어플의 필터가 합성곱을 이용한 것. 필터마다 다른 특징을 뽑아내기 때문에 필터마다 결과가 다르다
- 필터의 값은 고정값이 아님. - pooling layer
- 뽑은 feature를 줄여줌
- 압축 기능을 함 - optimization
- 얼마나 틀렸는지 결과가 나오면 최소로 줄이기 위한 계산을 해서 Loss를 줄이기 위한 일을 함 - Activation Function
- 뽑은 특징 중 음수 값을 제거(불필요한 값 제거)
- ex) ReLU, Sigmoid, Maxout, ELU 등 - SoftMax
- 최종 마지막에 컴퓨터가 예측을 함. 그때 값들이 softmax를 거쳐서 값들을 확률로 나타냄. 확률들의 합은 1이 됨 - Cost/Loss/Loss Function
-결과가 나오면 정답을 맞출 확률을 계산해 틀린 정도를 계산함 - Learning Rate
- 하이퍼 파라미터 중 하나 => 하이퍼 파라미터 : 컴퓨터가 입력할 수 없는 값으로 사람이 직접 입력해야 하는 값 - Batch Size
- 모델에 데이터를 넣을 때 데이터를 나눠서 넣는데 몇개씩 나눌 지 정하는게 Batch Size - Epoch / Step
- 데이터를 전체 다 보고 나면 Epoch 수 만큼 데이터를 반복해서 봄 - Train / Validation / Test
- 데이터 셋을 받으면 Train/Test 셋으로 나눔 - Label / Ground Truth
- 데이터 셋의 정답을 칭하는 말
- Ex) 이미지가 고양이인 경우 label은 cat
반응형
'Study > 머신러닝' 카테고리의 다른 글
[CNN] 레이어 쌓아서 모델 생성하기 (0) | 2021.01.11 |
---|---|
MNIST 데이터셋을 활용해 시각화하기 (0) | 2021.01.11 |
[6] 마르코프 체인과 LSTM으로 문장 생성하기 (0) | 2020.08.15 |
[5] 문장의 유사도 분석하기 - 레벤슈타인 거리, N-gram (1) | 2020.08.06 |
[4] MLP(Multi Layer Perceptron)로 텍스트 분류하기 (0) | 2020.07.30 |