[모두의 딥러닝] Learning rate / Evalution
📗강의노트/모두의 딥러닝

[모두의 딥러닝] Learning rate / Evalution

728x90
반응형

Sung Kim 님의 "모두의 딥러닝" 강의노트입니다

좋은 강의 감사드립니다!

https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5


데이터를 training / test 로 먼저 나눔!

Training 을 이용해 모델을 학습시킨다!
그리고 test set은 모델이 본 적 없는 새로운 데이터. 이를 보고 평가한다

 
overshooting 문제 / 너무 작은 문제 

Overshooting 되면 이후 분석의 prediction / accuracy 값들이 무한대로 나오다가, NaN으로 나오게 된다. 학습이 포기되는 상황이 도래하게 된다. 

Small learning rate일 경우 (cost 함수에 조금 굴곡이 있을 경우 거기 빠짐 ) 수백번 해도 cost가 줄지 않음 -> 학습이 이루어지고있지 않는 것

NaN은 무서운 것 !

또 다른 이유는 Non-normalized inputs 이다. 


또 등고선이 타원형태로 나타나게 된다.  방향을 잘못잡아 나가버리면 튕겨나가게 된다. 

-> 해결하기 위한 것 

MinMaxScaler는 sklearn.preprocessing에 포함된 함수이다.
Import 없이 사용하려면

sklearn.preprocessing.MinMaxScaler()    로 사용하면 된다.

각각의 열(column) 에서 제일 작은 값을 0 으로 제일 큰 값을 1로 바꾸어 나타내게 된다. ( Normalized input )



728x90
반응형