[모두의 딥러닝] Logistic Classification의 가설 함수
📗강의노트/모두의 딥러닝

[모두의 딥러닝] Logistic Classification의 가설 함수

728x90
반응형

Sung Kim 님의 "모두의 딥러닝" 강의노트입니다

좋은 강의 감사드립니다!

https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5


Binary Classification:

스팸 메일 구별하는 것 

페이스북 피드에서 숨기거나 보여줄 것  -> 이전에 좋아요 누른 것들을 기반으로 학습을 해서 게시물들을 걸러서 보여줌 

신용카드 패턴 학습 : 진짜인지 가짜인지 


0,1로 encoding하여 예측함 
Ex) spam(1) , Ham(0)


의학 분야나, 금융 분야에서도 학습을 통해 사용이 되고 있음(Classification)

linear처럼 볼 수 있음 

둘 을 가장 잘 잇는 선을 그어 구분하는 점을 찾는 것
But 하지만 새로운 데이터에 따른 직선을 그을 경우 기존의 Pass였던 data가 fail로 인식 될 수 있다.

또한 classification에서는 결과값이 0,1이어야 하는데 
H(x) = Wx + b 는 1보다 클 수도, 0보다 작을 수도 있다.   따라서 적합하지 않다!

G(z) 값을 0,1사이로 나오게 해주는 함수가 있을 까?

이러한 식을 통해 원하는 값을 얻을 수 있음
이 식이 바로 Sigmoid 함수이다. (Logistic function 이라고도 부른다)
S자처럼 생긴 곡선이 있어서 그렇게 부른다

x값이 커질 수록 g값이 1에 가까워짐 (반대일 경우 0에 가까워짐)

WT는 transpose된 W를 말함








728x90
반응형