개발차
[NLP] Day3 - Git 특강
Opensource Software Development Git은 History를 저장하는 것이 중요하다. 이를 commit이라는 것을 저장한다. 간단한 오픈소스 프로젝트 : github.com/namhyung/uftrace 리뷰/디스커션이 있느냐가 오픈소8스(O) vs 소스오픈의 차이 Pull request : + 첨부파일 있는 정도 ( 커밋 : 소스 코드의 변화분 )issue : 홈페이지에 게시글 올리는 것과 같음
[CS231n] 9. CNN Architectures
최신 CNN 아키텍쳐에 대해 알아볼 것이다. AlexNet은 최초의 Large scale CNN이다. 출력 차원은 55이다. 55 (wide) X 55 (height) X 96 (number of filters)으로 output volume이 된다. pooling의 경우에는 가중치가 없고 그저 특정 지역에서 큰 값을 뽑아내는 역할만 하기에 “ 파라미터 “ 가 없다. VGGNet 은 더 깊어지고(layers) 더 작은 필터(3x3)를 사용한다는 것이 특징이다. 우선 필터의 크기가 작으면 파라미터의 수가 더 적다. 따라서 큰 필터에 비해 레이어를 조금 더 많이 쌓을 수 있다(Depth). GoogLeNet도 깊은 네트워크다. 22개의 레이어로 구성되어 있다. 계산량을 효율적으로 수행하도록 네트워크를 디자인했..
[NLP] Day2 - HTML
NLP - HTTPshift + tap 하면 code 도움말 나옴In [1]:# !pip install builtwithCollecting builtwith Downloading https://files.pythonhosted.org/packages/9b/b8/4a320be83bb3c9c1b3ac3f9469a5d66e02918e20d226aa97a3e86bddd130/builtwith-1.3.3.tar.gzRequirement already satisfied: six in /Users/charming/anaconda3/lib/python3.6/site-packages (from builtwith) (1.12.0)Building wheels for collected packages: builtwith ..
[KOCW 선형대수] 13강. 일반최소제곱법과 QR 분할
13강. 일반최소제곱법과 QR 분할Orthogonal Basis & Gram-Schmittq1,q2,⋯,qn are orthogonalqTiqj=0(i≠j)qTiqj=1(i=j)Q=[q1,q2,⋯,qn]QTQ=I => Left-inverse=> Q−1=QTRotation matrix [cosθsinθ−sinθcosθ]Permutation matrix⎡⎣⎢⎢001100010⎤⎦⎥⎥-> P−1=PTGeometrically, an orthogonal Q is the product of a rotation and a reflectionProjection reduces the length of a vector, But orthonormal matrix preserves angles and lengths||Qx||..
[CS231n] 8. Deep Learning Software
일반적인 딥러닝 프레임워크에 대한 기본적인 개념. Tensorflow는 Computational graph를 그리는 것이 특징 Computational graph는 상대적으로 low level이다. Keras : Tensorflow를 backend로 해서 computational graph를 알아서 만들어준다. 먼저 레이어의 시퀀스로 모델을 구성한다. Optimizer 구성하고 model.compile 하면 그래프가 알아서 만들어지는 것이다. model.fit을 하면 전체 학습 과정이 알아서 진행된다. Pytorch 는 tensorflow와 다르다. 세 가지 추상화 레벨을 정의해 놓았다. Dtype을 floattensor에서 cuda.floattensor 로 바꿔주면 GPU에서 실행할 수 있다. Nump..
[KOCW 선형대수] 11강. 벡터투영과 최소제곱법
제 11강. 벡터투영과 최소제곱법 (b−x̂ a)⊥a = (b−x̂ A)⊥A=> AT(b−x̂ A)=0ATb−ATAx̂ =0ATb=ATAx̂ x̂ =(ATA)−1ATbℙ=Ax̂ =A(ATA)−1ATb투영의 개념과 최소제곱법의 개념이 한 번에 다 들어가있다.Projections and Least SquaresFor more equations than the unknowns, there is usually no solution.=> Overconstrained cases ( mxn matrix ( m > n ) )How to find an optimal Solution ? => minimizing errors ||Ax−b||2=E2 ( 거리의 개념으로 다가가기 )Least square solution of ..