수학적 모델을 바탕으로 가설을 세우고 참값과 예측값 사이에 차이를 계산하여 오차를 구하고
오차를 최소화 하기 위해 최적화 함수를 도입하고 이걸 옵티마이저라고 한다.
singe layer perceptron
여러가지 input 이 한개의 layer 를 들어가 한개의 결과 같이 나온다.
Multi layer perceptron (MLP)
여러가지 input 이 여러개의 layer 를 통과하는것 즉 딥러닝이라 한다.
이전에 학습 한것같이 1차 layer 에서 선형회규로 1차 방적식, 2차 layer에서는 로지스틱시그모이드 함수를 사용 하는 느낌으로 확률을 더 욱 높인다 생각한다.
대표적으로 Loss funtion
모델의 예측값과 실제값 사이의 차이를 측정하는 함수로, 모델의 성능을 평가하는 데 사용됩니다. 대표적인 손실 함수로는 평균 제곱 오차(MSE), 교차 엔트로피 손실 함수 등이 있습니다.
1. Mean Square Err
참값과 예측값의 차이를 제곱한 값을 평균하여 계산
2. Binary Cross Entropy
logistic regression 에서 활용했던 cost Function
참값이 1,0 일때 log loss 를 다르게 적요하여 계산
3.Categorical Cross Ectropy
softmax regression 에서 활용
one-hot vector 로 encodiong 된 값과 예측값의 차이를 계산
Optimizer (최적화)
모델의 가중치를 업데이트하는 방법을 결정하는 알고리즘으로, 손실 함수의 값을 최소화하도록 설계되었습니다. 대표적인 옵티마이저로는 SGD, Adam, RMSprop 등이 있습니다.
Graient Descent : 기울기를 바탕으로 방향을 찾는다.
Momentum : 기울기로 움직이되, 관성을 고려한다.
Adagrad : 탐색해본 적 없는 구간의 step은 크게 해본적 있는 구간은 작게
RMSprop : step을 작게할 때는 이전영향을 고려한다
Adam : Momentum + RMSprop (보편적으로 많이 사용 한다.)
기본적 용어 개념
epoch : total data 가 학습된 횟수
Batch : 대규모 데이터셋을 다룰 때 한 번에 모든 데이터를 처리하는 것이 아니라, 작은 '배치(batch)'로 나누어 모델을 학습시키는 기법!!
total data 를 한번에 학습한다면 정교하게 GD를 수행할 수 있지만, computational Cost가 커진다는단점이 있어
전체데이터를 작은사이즈로 잘라서 학습에 활용한다. 작은사이지는 정교하게 GD를 수행하고 적당한 Computational Cost를 소모하게끔 minibatch형태로 Training
Batch Size : Batch Size는 한 번에 네트워크를 통과하는 데이터의 수입니다.
iteration : 설정한 Batch size로 total data가 학습되기위해 반복하는 횟수 즉 total data 가 100 이고 batch 20 이면 iteration : 5 가된다.
Mini-batch Gradient Descent:
Rate limit reached for gpt-4o-mini in organization 오류처리?! (0) | 2024.10.02 |
---|---|
인공지능 개발 환경 이걸로끝(NVIDIA 드라이버 설치부터 CUDA까지) (0) | 2024.03.14 |
로지스틱 , 소프트맥스, One-hot Encoding 이란 (0) | 2024.02.02 |
AI 학습을 위한 기본지식_선형회귀 (0) | 2024.02.01 |
AI학습을 위한 기본적인 환경세팅 (0) | 2024.01.29 |