개발차

    [KOCW 선형대수] 6강. 영벡터공간과 해집합

    제 6강. 영벡터공간과 해집합Vector Space= Set of vectors in ℝn(1) Closed under addition ( 덧셈이 가능하다 )V1∈𝕍,V2∈𝕍V1+V2∈𝕍(2) Closed under scalar multiplication ( 스칼라곱이 가능하다 )V∈𝕍,c∈ℝcV∈𝕍(3) 𝕍 includes the zerovector( 원점 )𝕍={0}Column space of A= Set of all linear combinations of column vectors in A{x|x=∑i=1nciai} A=[a1,a2,⋯,an] Ax=b x=⎡⎣⎢⎢⎢⎢x1 x2 ⋮ xn⎤⎦⎥⎥⎥⎥x1a1+x2a2+⋯+xnan=bif, b∈ℂ(A) -> there are solutions ( 1개 이..

    [핸즈온 머신러닝] 제 5장 코드 & 연습문제 풀이

    import numpy as np from sklearn import datasets from sklearn.pipeline import Pipeline from sklearn.preprocessing import StandardScaler from sklearn.svm import LinearSVC iris= datasets.load_iris() X = iris['data'][:,(2,3)] y = (iris['target']==2).astype(np.float64) svm_clf = Pipeline([ ('scaler',StandardScaler()), ('classifier', LinearSVC(C=1,loss='hinge')) ]) svm_clf.fit(X,y) Out[23]:Pipeline(me..

    [핸즈온 머신러닝] 제 5장 정리

    Part. 5 Support Vector Machine 정리Keyword라지 마지 분류 ( Large Margin Classification ) :SVM 분류기를 클래스 사이에 가장 폭이 넓은 도로를 찾는 것. ( 결정 경계와 샘플간의 거리 커야함 )서포트 벡터 ( Support Vector ) :결정 경계 바깥쪽에 위치한 훈련 샘플하드 마진 분류 ( Hard Margin Classification ) :모든 샘플이 결정 경계 바깥쪽에 올바르게 분류되어 있는 것하지만 두 가지 문제점이 존재한다.(1) 데이터가 선형적으로 구분될 수 있어야 제대로 작동한다 (2) 이상치에 민감하다소프트 마진 분류 ( Soft Margin Classification ) :"결정 경계의 폭을 가능한 한 넓게 유지하는 것" 과 ..

    [KOCW 선형대수] 5강. 벡터공간과 열벡터공간

    제 5강. 벡터공간과 열벡터공간미지수 = 방정식 => Unique or No-Solution미지수 > 방정식 => Infinitely or Many SolutionsVector Spaces and SubspacesSpace : Set closed under addition & scalar multiplication 원소갖는 집합, 덧셈 닫힘 / scala 곱 닫힘 ( 닫힘 = 포함, 가능 )for any vectors X,Y∈ℝnfor any scalar C∈ℝnX,Y∈𝕍{X+Y∈𝕍CX∈𝕍C1X+C2Y∈𝕍 (V는 벡터공간)A real vector space ℝn(n-dimmensional)(1) x+y=y+x(2) $ x + ( y + z ) = ( x + y ) + z(3) There is a uniq..

    [KOCW 선형대수] 4강. 역행렬과 전치행렬

    제 4강. 역행렬과 전치행렬Inverse ( 역행렬 )Ax=b−>A−1b=xAA−1=A−1A=I모든 A행렬이 역행렬을 가지는 것은 아니다!det(A)≠0 일 때 행렬 A에 대해 역행렬이 존재한다.(1) The Inverse (A−1) existsElimination이 n_pivots를 만들어 낼 때, ( Diagnoal element ≠ 0 )(2) The Inverse is unique!A−1=B,A−1=C(BA)C=B(AC)=>C=B결국 행렬 A에 대한 역행렬은 하나만 존재한다.(3) If A is invertible행렬 A의 역행렬이 있을 때,Ax=bA−1Ax=A−1bx=A−1b(하나만 나옴)결국 x도 unique하다! ( 1:1 대응관계를 유지한다 ) linear 관계에서 입력, 출력신호를 1:1..

    [핸즈온 머신러닝] 제 4장 연습문제 풀이

    Hands on Machine-LearningPart.4 - Training Model1. 수백만 개의 특성을 가진 훈련 세트에서는 어떤 선형 회귀 알고리즘을 사용하나요?보통은 확률적 경사 하강법(SGD), 미니배치 경사 하강법을 사용한다. 훈련 세트의 크기가 메모리에 맞다면 배치 경사 하강법도 가능하다. 하지만 정규방정식은 계산 복잡도가 "특성의 갯수"에 따라 매우 빠르게 증가하기에 사용할 수 없다.=> 확률적 경사 하강법(SGD), 미니배치 경사 하강법, 배치 경사 하강법 O / 정규방정식 X2. 훈련 세트에 있는 특성들이 각기 다른 스케일을 갖고 있다. 이런 데이터에 잘 작동하지 않는 알고리즘은? 그 이유는? 문제 해결은 어떻게 하는가?길쭉한 타원형의 비용함수가 형성된다. 경사하강법 (GD) 알고리..