전체 글

전체 글

    [모두의 딥러닝] Softmax classification 기본개념 & Cost

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다!https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 여러개의 클래스가 있을 때 그것을 예측하는 Multinomial classification, 그중에서도 자주 쓰이는 Softmax classification을 알아보자 기본 출발은 linear에서 출발했으나 return값이 실수로 나오기 때문에 binary에는 적합하지는 않았다. 그래서 생각한 방법이 이를 Z로 놓고 g(Z)라는 함수에 넣어 큰 값을 압축을 하여 0 또는 1 사이 의 값으로 냈으면 좋겠다고 생각했다. 그래서 알아낸 것이 Sigmoid(logistic)을..

    [모두의 딥러닝] Logistic Classifier - tensorflow

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다!https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 가설은 sigmoid 함수 Cost를 작게하는 W를 구하는 것이 학습의 과정이다! 그리고 기울기(알파)의 반대방향으로 움직여 W를 계속 조정한다. Step step 움직여서 조정한다 tf.placeholder을 만들 때에는 shape에 주의해야한다. 먼저 학습할 데이터들을 입력한다 그 후 tf.placeholder을 통해 tensor을 만들어준다. 이 때 shape에 주의해야한다. None으로 두어 X variable의 갯수를 미리 지정하지 않고, X의 열 갯수만 2로..

    [모두의 딥러닝] Logistic Classification의 cost 함수

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다!https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 Cost function의 모양이 다르게 나옴 Logistic은 시작점에 따라 최저점이 달라질 수 있음 그래서 이를 local 최저점이라고 함 Global minimum을 찾는게 목적임! local에서 멈춰버리면 모델이 매우 나쁘게 prediction함 그래서 이 그래프에 대해 GradientDescent를 사용할 수 없게 됨! y가 1일 때 , 0 일때 다른 함수 적용 exponential의 구부러진 그래프를 잡아주는 것이 상극인 log함수 이다. 예측값과 실제값의 ..

    [모두의 딥러닝] Logistic Classification의 가설 함수

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다! https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 Binary Classification: 스팸 메일 구별하는 것 페이스북 피드에서 숨기거나 보여줄 것 -> 이전에 좋아요 누른 것들을 기반으로 학습을 해서 게시물들을 걸러서 보여줌 신용카드 패턴 학습 : 진짜인지 가짜인지 0,1로 encoding하여 예측함 Ex) spam(1) , Ham(0) 의학 분야나, 금융 분야에서도 학습을 통해 사용이 되고 있음(Classification) linear처럼 볼 수 있음 둘 을 가장 잘 잇는 선을 그어 구분하는 점을 찾는 것 B..

    [모두의 딥러닝] loading data from file

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다!https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 np.loadtxt 를 통해서 읽어옴 delimiter=‘,’ 콤마로 구분하고 / dtype: 통일된 타입일 경우 Xy[:, 0:-1]로 전체 행 0~2열 slicing xy[:,[-1]] 마지막 열만 slicing 파일이 너무 클 경우 사용 numpy로 사용하기 힘들 때 파일을 queue에 쌓아둠 다시 리더에 넣어두고 디코딩하고 다시 쌓아서 씀 1. 파일들의 list를 만들어줌 이 파일을 읽어올 reader을 정의해줌 value를 읽어오고 나서 어떻게 parsing할..

    [모두의 딥러닝] Multi-variable linear regression - TensorFlow

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다!https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 학습해야할 Rate가 3개로 늘어남 +b는 잠시 생략 일일이 적지 않고 Matrix를 이용하여 간편하게 hypothesis를 세움 Matrix 형태로 x_data에 할당해줌 shape을 잡아줄 때 필요에 따라 X개수를 추가해줄 수 있기 때문에 None으로 표시해둠 ( 나중에 원하는 만큼 넣을 수 있음 대신 element는 3개) y또한 n개를 예측하도록 똑같이 해둠