📗강의노트
[KOCW 선형대수] 1강. 선형성 정의 및 1차 연립 방정의 의미
1강. 선형성 정의 및 1차 연립 방정의 의미Linearity : 선형성 존재해야 행렬로 표현 가능하다!Superposition ( 중첩의 원리 ) Homogenirety 위 두 가지를 만족해야 Linearityf(x1+x2)=f(x1)+f(x2) -> 중첩해서 더할 수 있다.f(ax)=af(x) -> Homogeniety 만족 ( a는 상수 )즉, f(a1x1+a2x2)=a1f(x1)+a2f(x2)y=mx=f(x)m(a1x1+a2x2)=a1mx1+a2mx2=a1f(x1)+a2f(x2)"반드시 원점"을 지나야함 ( LInearity의 조건 )y=mx+n(n≠0) m(a1x1+a2x2)+n≠a1(mx1+n)+a2(mx2+n)값 자체가 x ~ y 선형성이 없다. ∆x, ∆y 변화량간의 선형성은 존재한다.op..
[KOCW 선형대수] 계획
https://www.youtube.com/playlist?list=PLSN_PltQeOyjDGSghAf92VhdMBeaLZWR3 위의 KOCW 선형대수 강의를 듣고 강의정리를 하며 이해할 것이다. 총 23강으로 계획은 3월 내에 완강하기. 부족한 부분은 책 구매해서 보충하기.( 선형대수와 군 or 프로그래머를 위한 선형대수 )
[핸즈온 머신러닝] 제 3장 정리
3장에서는 MNIST Data를 이용한 분류를 보여주고 있다. 70,000개의 이미지이고 각각의 이미지는 784개의 특성을 가지고 있다.(28x28) Train / Test Split ( 데이터셋 섞어서 ) 모델 훈련 성능 측정 ( 교차검증 / GridSearch ) 정확도만으로는 분류기의 성능 측정 부족 ( 특히 불균형데이터 ) 4. 에러 분석 5. 성능 개선 Keyword 확률적 경사 하강법 ( Stochastic Gradient Descent, SGD ) : 큰 데이터셋을 효율적으로 처리하는 장점이 있다. SGD가 한 번에 하나씩 훈력 샘플을 독립적으로 처리하기 때문 ( 온라인 학습에 잘 맞음 ) 오차 행렬( Confusion Matrix ) : 기본적인 아이디어는 클래스 A의 샘플이 클래스 B로 ..
[핸즈온 머신러닝] 제 2장 응용
https://www.kaggle.com/vishalyo990/prediction-of-quality-of-wine 위의 Kaggle data를 이용하고 위의 코드를 이용하여 실행해보았다. 결론적으로는 품질 예측에 대해 rfc가 Cross-Validation을 거치고 가장 높은 정확도를 보였다.
[핸즈온 머신러닝] 제 2장 정리
Keywords를 살펴보기 전에 머신러닝의 프로젝트 순서를 알아보자 큰 그림을 보고 데이터를 구하고 데이터로 부터 통찰을 얻기 위해 탐색하고 시각화한다. 머신러닝 알고리즘을 위해 데이터를 준비 모델을 선택하고 훈련시킴 모델을 상세하게 조정한다 솔루션을 제시 시스템을 론칭하고 모니터링하고 유지 보수 Keywords 평균 제곱근 오차(RMSE : Root Mean Square Error) : 오차가 커질수록 이 값은 커짐, 예측에 얼마나 많은 오류가 있는지 가늠하게 해줌, 제곱항을 합한 것의 제곱근(RMSE)는 “유클리디안 노름”에 해당, L2 / 노름의 지수가 클수록 큰 값의 원소에 치우치며 작은 값은 무시되는데 이 때문에, MAE보다 조금 더 이상치에 민감함. (이상치가 드물경우 RMSE가 good) 평..
[CS231n] 2. Image Classification Pipeline
Image Classification은 어떻게 하는 것 일까? 우선 입력 이미지를 받는다. 그리고 시스템에는 미리 정해놓은 카테고리 집합이 존재한다. 이미지를 보고 어떤 카테고리에 속할지 고르는 것. 컴퓨터에게는 이미지는 그저 숫자의 집합에 불과하다. 카메라를 조금만 옮겨도 모든 픽셀 값이 달라진 것이다. 그렇기에 우리가 만드는 알고리즘은 이런 상황에데 대해 강인해야한다. ( 조명,자세,가려짐, 배경과 비슷할 때 또한 마찬가지이다. ) 직관적이고 명시적인 알고리즘은 존재하지 않는다. 이미지를 보고 edges를 계산하고 , corners와 edges를 각 카테고리로 분류한다. -> 하지만 이런 알고리즘은 “확장성”이 없는 것이다. 다른 물체를 인식하려면 다시 처음부터 진행해야 하는 것이 문제이다. 그래서 ..