본문 바로가기

반응형

머신러닝

(2)
모델 학습 및 추론 과정(논리 흐름도) 개요 코드에만 매몰되어 있다보니까 큰 그림을 놓치고 있는 것 같아서 정리 [파이토치 학습과정] 위 모델 학습 플로우를 수도 코드를 작성해보자 # 필요한 패키지 import # hyperparameter 선언 # 선언한 hyperparameter 를 저장 # 데이터 불러오기 # dataset 만들기 & 전처리하는 코드 # dataloader 만들기 # AI 모델 설계도 만들기 (class) # init, forward 구현하기 # AI 모델 객체 생성 (과정에서 hyperparameter 사용) # loss 객체 생성 # optimizer 객체 생성 # ------- 준비단계 끝 -------- # ------- 학습단계 시작 -------- # loop 돌면서 학습 진행 # [epoch]을 학습하기 위해..
경사하강법(Gradient Discent) 배경 1차원 선형 함수에 대해서 직관 + 수동적인 방법으로 선형모델의 w, b 값을 찾아보았었다 그 과정에서 손실(loss)값이 줄어드는 방향으로 진행하였고 이것은 곧 선형대수에서 말하는 함수의 편미분(기울기) 값이 0인 부분을 찾는다는 것을 뜻한다 따라서, 이번엔 경사하강법(Gradient Descent)을 사용하여 모델을 트레이닝시켜보도록 한다 경사하강법(Gradient Descent) f(x), f^(x) 를 비교하여, 손실 경향성(기울기)을 이용, 극값(global minimum)을 찾기 위한 방법론 → 함수의 편미분(기울기)를 이용하므로 직관적이고 적용하기 쉽다는 장점 → 단, epoch(세대) 이 진행되는 과정에서 학습률(learning rate)을 얼마나 반영할지, 다차원 함수의 경우 극값을..

반응형