[모두의 딥러닝] Multivariable linear regression
📗강의노트/모두의 딥러닝

[모두의 딥러닝] Multivariable linear regression

728x90
반응형

Sung Kim 님의 "모두의 딥러닝" 강의노트입니다

좋은 강의 감사드립니다!

https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5


  • Remind

Linear regression을 하기 위해서는 
1. Hypothesis : 어떻게 예측할 건지   H(x) = Wx+b   / W와 b를 학습
2. Cost function : cost를 측정 / 잘했는지 못했는지를 어떻게 정의 할지  /
Cost(W,b)    ( 예측값 - 실제값 )제곱해서 합한 것   밥그릇 모양으로 주어짐
3. Gradient descent algorithm : cost가 정해지면 cost를 최적화 하는 알고리즘 사용
cost최적화되는 값을 찾기위해 경사면을 따라 내려가는 알고리즘 사용 cost를 최적화하는 W&b를 구하는 것
이 필요

여러 개의 input을 가지고 예측하는 것

이전에는  H(x) = Wx+b    -> 
세 개일경우

학습해야할 W가 3개로 늘어난 것 

 식의 큰 틀은 같음 

갯수가 늘어나도 하면 되지만 불편하기 때문에 Matrix를 이용


Matrix의 곱을 이용할 것

가설을 Matrix로 나타냄 
앞부분을 X / 뒷부분을 W라고 표시함



73,80,75 이런 것들의 하나의 instance라고 한다.(x instance)

instance의 수가 늘어나면 인수로 써서 표현 w는 계속 3개
matrix의 장점 : instance가 많을 때 각각의 instance를 계산하는 것이 아니라 전체를 긴 매트릭스에 넣어 instance의 수를 넣고 w를 곱하면 원하는 값을 얻을 수 있음.

3개의 variable이기 때문에 w도 3개
[5,3]  [3,1]  = [5,1]


                     X
[ instance의 갯수 , variable의 수 ]
                    W
[ variable의 수, 1개의 결과 ] 
                    H(x) 
 [ instance수 , Y값 1개 ]

실제 구현할 때는 XW로 둘 다 matrix로 사용한다.








728x90
반응형