개발차

    [논문읽기] 12. YOLO v1

    Unified Pipeline = YOLO!0. AbstractYOLO는 이전 방식과 다르게, object detection을 공간적으로 분리된 bounding boxes와 클래스 확률로 regression을 간주한다. 단일의 뉴럴 네트워크가 한 번의 평가로 전체 이미지에서 bounding boxes와 클래스 확률을 예측한다. 전체 detection 파이프라인이 단일 네트워크이기 때문에, detection 성능에 대해 직접적으로 end-to-end로 최적화될 수 있다.이 통합된 구조는 매우 빠르다. YOLO는 localization 에러를 더 많이 만들지만, 배경에 대한 false ..

    [논문읽기] 11. WGAN-GP : Improved Training of Wasserstein GANs

    weight clipping → Gradient penalty0. AbstractWGAN에서 critic에 대해 Lipschitz constraint를 강요하기위한 weight clipping이 발생시키는 문제, 즉 undesired behavior로 이끌 수 있다 라는 것을 발견했다. 논문에서는 weight clipping 대신에 다른 것을 제안한다 : 입력에 대하여 critic의 gradient norm을 처벌하는 것이다.1. IntroductionWGAN은 discriminator(논문에선 critic)이 1-Lipshichtz function의 공간에 놓여져있기를 원한다.(저자들은 weight clippin..

    [핸즈온 머신러닝] 제 14장 연습문제 풀이

    Exercise Part.14RNN1. 시퀀스-투-시퀀스 RNN을 사용한 애플리케이션에는 어떤 것들이 있나요? 시퀀스-투-벡터 RNN과 벡터-투-시퀀스 RNN은 어떤가요?시퀀스-투-시퀀스 : 날씨 예측, 기계 번역, 비디오 캡션 생성, 스피치 투 텍스트, 음악 생성, 노래의 화음 식별시퀀수-투-벡터 : 음악 샘플을 장르로 구분하기, 책 후기에 대한 감성분석벡터-투-시퀀스 : 이미지 캡션 생성, 일련의 파라미터를 기반으로 한 멜로디 생성, 사진 속에서 보행자 위치 찾기2. 왜 자동 번역에 시퀀스-투-시퀀스 RNN 대신 인코더-디코더 RNN을 사용하나요?문장을 번역할 때, 단어 단어 해석하는 것 보다 문장을 읽고 전체적으로 해석하는 것이 더 성능이 좋기 때문이다. 인코더-디코더는 문장을 먼저 읽고 번역을 하..

    [핸즈온 머신러닝] 제 14장 정리

    14강. 순환 신경망RNN :순환 뉴런은 타임 스텝마다 X(t)(입력), yt−1 (이전 타임 스텝의 출력)을 입력으로 받는다.하나의 샘플에 대한 순환 층의 출력은 다음과 같다.y(t)=ϕ(WTx⋅X(t)+WTy⋅y(t−1)+b)여기서 ϕ는 활성화 함수 역할을 한다.Memory cell :어떤 상태를 보존하는 신경망의 구성 요소를 말한다. 일반적으로 타임 스텝 t에서의 셀의 상태 h(t)는 다음과 같다.h(t)=f(h(t−1),X(t))deep RNN :셀을 여러 층으로 쌓는 것을 말한다. 여러개의 셀을 만들어서 MultiRNNCell로 쌓아올린다. states는 각 층마다의 마지막 상태를 말한다.LSTM (Long-Short Term Memory) :훈련이 빠르게 수렴하고 데이터에 ..

    [논문읽기] 10. CGAN

    "GAN + Condition y"0. Abstract이 논문에서는 conditional 버전의 GAN에 대해서 설명할 것이다. 이는 간단하게 y 데이터를 추가함으로써 generator와 discriminator에 condition을 줄 수 있다. 이 모델을 통해서 MNIST dataset을 클래스 라벨 조건에 맞춰서 생성할 수 있다.1. IntroductionUnconditioned generative model에서는 데이터가 생성되는데에 통제권이 없다. 하지만 추가적인 정보를 모델에 입력하여 conditioning하면 데이터 생성과정에 영향을 미칠 수 있다. 이러한 conditioning은 클래스 라벨, 인페인팅 데이터의 일..

    [논문읽기] 09-1. LSGAN MNIST with Keras

    LSGAN_MNIST_Kerashttps://github.com/eriklindernoren/Keras-GAN/blob/master/lsgan/lsgan.py1. Load ModulesIn [13]:from __future__ import print_function, division from keras.datasets import mnist from keras.layers import * from keras.models import * from keras.optimizers import * import matplotlib.pyplot as plt import sys import numpy as np import tensorflow as tf 2. Build NetworkIn [59]:class LSGAN..