📗강의노트/KOCW 선형대수

    [KOCW 선형대수] 18강. 고유값과 고유벡터 및 대각화

    제 18강. 고유값과 고유벡터 및 대각화Eigenvalues & Eigenvectors 𝐴𝑥=𝜆𝑥 𝜆 : eigenvalue , 𝑥 : eigenvector=> row exchanges change the eigenvalue 𝜆 => Use determinant𝑑𝑒𝑡(𝐴−𝜆𝐼)=0 -> Singularℕ(𝐴−𝜆𝐼) => how to find null-space ( eigen vector )=> Reduced Row Echelon form ( pivot variables / free variables )Ex)𝐀=[42−5−3] 𝐀−𝜆𝐈=[4−𝜆2−5−3−𝜆] 𝑑𝑒𝑡(𝐴−𝜆𝐼)=(4−𝜆)(−3−𝜆)+10 =>𝜆2−𝜆−2=0 𝜆=2𝑜𝑟−1 (1) 𝜆=−1 (𝐀−𝜆𝐈)𝐱=[52−5−2]𝑥=[00] 𝐱1=[11]..

    [KOCW 선형대수] 17강. 판별식의 응용

    제 17강. 판별식의 응용 Determinant of Am×n(1) Gauss Elimination A−>U det(A) = Products of pivotsrow exchange 할 때마다, 부호가 바뀜-1에 {number of row exchange} 승 만큼 붙음∏ni=1Pi 이 식과 곱해짐(2) Big formula 생각할 수 있는 모든 Permutation 조합들을 구하고 곱하고, 더하는 것(a1α,a2β)(4) CofactorFocus on one row !det(A)=∑nj=1aijCijC는 aij의 행, 열을 제외한 minor matrix이다.Cij=(−1)i+jdetMij따라서 다음과 같다.det(A)=∑nj=1aij(−1)i+jdetMij Determinant Applications (..

    [KOCW 선형대수] 16강. 판별식의 공식

    제 16강. 판별식의 공식 det(A)= Product of all pivots from Gauss-Elimination ( = no pivoting ) det(A=LDU) L, U = 1로 나온다PA=LDUdet(P)=+or−1det(A)=+or−∏ni=1Pivotsi대각행렬 A에 대하여det(A)=N+1 모든 행에 대하여 linearly independent하다. Column Vector 1열이라도 모두 0으로 만들어주면됨. 일반적으로⎡⎣⎢⎢a11 a21 a31a12a22a32a13a23a33⎤⎦⎥⎥ a11a22a33(detP1)+a11a23a32(detP2)=a11(a22a33detP1+a23a32detP2) 괄호 안을 Cofactor라고 부르고 C 로 표기한다.빨간 부분을 Submatrix라고 부..

    [KOCW 선형대수] 15강. 행렬의 판별식

    제 15강. 행렬의 판별식m×n square matrix det(A)Some important properties of determinant1. A−1 exist when det(A)≠0역행렬 식에 판별식의 역수가 곱해지기 때문,2. det(A) equals the volume of a box in ℝn space¶Ex) Jacobian3. det(A)= + or - Product of the Pivots4. Cramer's rule for Ax=bxi=det(Ai)det(A)Ex) {x+y=32x−y=3위의 식을 행렬로 바꾸면[121−1][xy]=[33]위와 같이 표현할 수 있다.Ax=[331−1]x를 구할 때, 좌측 열을 모두 3을 바꿔준다.x=det(Ax)det(A)=−6−3=2y도 같은 방법으로 ..

    [KOCW 선형대수] 14강. 함수공간

    제 14강. 함수공간Function Spaces and Fourier Seriesextend vector space to function spaceapply Gram-Schmitt Orthogoanlization to function space1. Hilbert Space무한대 공간으로 생각하는 것이다. 셀 수 없이 많은 공간을 H, 힐버트 스페이스라고 말한다.x(t),y(t)∈H(a≤t≤b)x(t)+y(t)∈Hαx(t)∈HVector inner product -> function inner productxTy=∑ni=1xiyi ->(x(t),y(t))=∑∞k=0x(a+kδt)y(a+kδt)=∫bax(t)y(t)dt크기(거리)도 똑같다.||x(t)||2=∫bax2(t)dt (적분화)Hilbert spac..

    [KOCW 선형대수] 13강. 일반최소제곱법과 QR 분할

    13강. 일반최소제곱법과 QR 분할Orthogonal Basis & Gram-Schmittq1,q2,⋯,qn are orthogonalqTiqj=0(i≠j)qTiqj=1(i=j)Q=[q1,q2,⋯,qn]QTQ=I => Left-inverse=> Q−1=QTRotation matrix [cosθsinθ−sinθcosθ]Permutation matrix⎡⎣⎢⎢001100010⎤⎦⎥⎥-> P−1=PTGeometrically, an orthogonal Q is the product of a rotation and a reflectionProjection reduces the length of a vector, But orthonormal matrix preserves angles and lengths||Qx||..