728x90
반응형
Sung Kim 님의 "모두의 딥러닝" 강의노트입니다
좋은 강의 감사드립니다!
https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5
- Remind
Linear regression을 하기 위해서는
1. Hypothesis : 어떻게 예측할 건지 H(x) = Wx+b / W와 b를 학습
2. Cost function : cost를 측정 / 잘했는지 못했는지를 어떻게 정의 할지 /
Cost(W,b) ( 예측값 - 실제값 )제곱해서 합한 것 밥그릇 모양으로 주어짐
3. Gradient descent algorithm : cost가 정해지면 cost를 최적화 하는 알고리즘 사용
cost최적화되는 값을 찾기위해 경사면을 따라 내려가는 알고리즘 사용 cost를 최적화하는 W&b를 구하는 것
이 필요
여러 개의 input을 가지고 예측하는 것
이전에는 H(x) = Wx+b ->
세 개일경우
학습해야할 W가 3개로 늘어난 것
식의 큰 틀은 같음
갯수가 늘어나도 하면 되지만 불편하기 때문에 Matrix를 이용
Matrix의 곱을 이용할 것
가설을 Matrix로 나타냄
앞부분을 X / 뒷부분을 W라고 표시함
73,80,75 이런 것들의 하나의 instance라고 한다.(x instance)
instance의 수가 늘어나면 인수로 써서 표현 w는 계속 3개
matrix의 장점 : instance가 많을 때 각각의 instance를 계산하는 것이 아니라 전체를 긴 매트릭스에 넣어 instance의 수를 넣고 w를 곱하면 원하는 값을 얻을 수 있음.
3개의 variable이기 때문에 w도 3개
[5,3] [3,1] = [5,1]
X
[ instance의 갯수 , variable의 수 ]
W
[ variable의 수, 1개의 결과 ]
H(x)
[ instance수 , Y값 1개 ]
실제 구현할 때는 XW로 둘 다 matrix로 사용한다.
728x90
반응형