📗강의노트/모두의 딥러닝

    [모두의 딥러닝] Fancy Softmax Classifier - cross_entropy / one_hot / reshape

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다!https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 Cross_entropy One_hot Reshape Soft_cross_entropy_with_logits -> logits = tf.matmul(X,W) + b logit( Score값 ) Hypothesis = tf.nn.softmax(logits) 최종 확률의 형태로 나오게 됨 Y 는 one-hot 으로 주어짐 / 이를 hypo의 log와 곱하면 됨 더 간편하게 하기 위해 Soft_cross_entropy_with_logits함수를 사용함 logit에는 soft..

    [모두의 딥러닝] Softmax Classification - TensorFlow

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다!https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 여러개의 Class를 예측할 때 유용하다! n개의 예측할 것들이 있을 때 Softmax classification 사용 Scores들을 softmax를 통해 probabilities(확률)로 나오게 된다. 이 확률들을 다 더하면 1이 되어야한다. 먼저 수식을 작성한다 tf.matmul(X,W) + b * matmul은 matrix의 곱을 말한다. Hypothesis = tf.nn.softmax(tf.matmul(X,W) + b) 와 같이 가설을 세운다 어떤 label로..

    [모두의 딥러닝] Softmax classification 기본개념 & Cost

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다!https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 여러개의 클래스가 있을 때 그것을 예측하는 Multinomial classification, 그중에서도 자주 쓰이는 Softmax classification을 알아보자 기본 출발은 linear에서 출발했으나 return값이 실수로 나오기 때문에 binary에는 적합하지는 않았다. 그래서 생각한 방법이 이를 Z로 놓고 g(Z)라는 함수에 넣어 큰 값을 압축을 하여 0 또는 1 사이 의 값으로 냈으면 좋겠다고 생각했다. 그래서 알아낸 것이 Sigmoid(logistic)을..

    [모두의 딥러닝] Logistic Classifier - tensorflow

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다!https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 가설은 sigmoid 함수 Cost를 작게하는 W를 구하는 것이 학습의 과정이다! 그리고 기울기(알파)의 반대방향으로 움직여 W를 계속 조정한다. Step step 움직여서 조정한다 tf.placeholder을 만들 때에는 shape에 주의해야한다. 먼저 학습할 데이터들을 입력한다 그 후 tf.placeholder을 통해 tensor을 만들어준다. 이 때 shape에 주의해야한다. None으로 두어 X variable의 갯수를 미리 지정하지 않고, X의 열 갯수만 2로..

    [모두의 딥러닝] Logistic Classification의 cost 함수

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다!https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 Cost function의 모양이 다르게 나옴 Logistic은 시작점에 따라 최저점이 달라질 수 있음 그래서 이를 local 최저점이라고 함 Global minimum을 찾는게 목적임! local에서 멈춰버리면 모델이 매우 나쁘게 prediction함 그래서 이 그래프에 대해 GradientDescent를 사용할 수 없게 됨! y가 1일 때 , 0 일때 다른 함수 적용 exponential의 구부러진 그래프를 잡아주는 것이 상극인 log함수 이다. 예측값과 실제값의 ..

    [모두의 딥러닝] Logistic Classification의 가설 함수

    Sung Kim 님의 "모두의 딥러닝" 강의노트입니다좋은 강의 감사드립니다! https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5 Binary Classification: 스팸 메일 구별하는 것 페이스북 피드에서 숨기거나 보여줄 것 -> 이전에 좋아요 누른 것들을 기반으로 학습을 해서 게시물들을 걸러서 보여줌 신용카드 패턴 학습 : 진짜인지 가짜인지 0,1로 encoding하여 예측함 Ex) spam(1) , Ham(0) 의학 분야나, 금융 분야에서도 학습을 통해 사용이 되고 있음(Classification) linear처럼 볼 수 있음 둘 을 가장 잘 잇는 선을 그어 구분하는 점을 찾는 것 B..