📲PROJECT/논문읽기

    [논문읽기] 04. R-CNN : Rich feature hierarchies for accurate object detection and semantic segmentation Tech report

    "Region Proposal X CNN"0. AbstractR-CNN은 2가지 아이디어를 기반으로 탄생했다.(1) localize와 object segment를 위해 high-capacity CNN을 상향식으로 region proposal을 적용할 수 있다. (region proposal + CNN)(2) labeled된 training data가 부족할 때, domain 기반으로 fine-tuning거친 사전 지도학습(pre-trained)을 이용해서 성능을 매우 높일 수 있다. (pre-trained + fine-t..

    [논문읽기] 03. Deep Neural Networks for Object Detection

    “ DNN, 객체 인식의 시작 ”0. AbstractDNN(Deep Neural Networks)은 image classification에서 뛰어난 성능을 보였다. 이 논문에서는 한 단계 더 나아가서 분류뿐만 아니라, 다양한 클래스의 객체를 localizing하는 것을, DNN을 이용해서 객체를 인지(Object Detection)할 것이다. 조금의 네트워크를 통해 비용 대비 좋은 성능을 내는 것을 Multi-scale 추론이라고 하고 이 과정을 통해 Object Detection을 할 것이다. Pascal VOC 데이터에 대해 성능을 측정할 것 이다.1. Introduction이미지에 대해서 완벽히 이해하기 위해서, 더 정..

    [논문읽기] 02-1. ResNet with Tensorflow

    ResNet_implementationTensorflow를 이용해서 ReNet을 구현해 볼 것이다.출처 : https://blog.naver.com/et2035/221371125386In [163]:import tensorflow as tf tf.logging.set_verbosity(tf.logging.ERROR) # warning 출력 방지 from keras.applications.resnet50 import ResNet50, decode_predictions resnet = ResNet50() 다음은 ResNet50의 구조이다.In [96]:resnet.summary() _______________________________________________________________________..

    [논문읽기] 02. Deep Residual Learning for Image Recognition : ResNet

    “Residual(잔차)의 반란”0. AbstractResNet은 Deep neural networks 일수록 더 학습하기 어렵다는 문제를 인식하고 이를 해결하기위해 만들어졌다. 그래서 이전의 학습 방법들과 달리 residual(잔차)을 학습하는 방법으로 더 깊은 networks를 이전보다 더 쉽게 학습시키도록 만들었다.residual networks는 더 optimize하기 쉽고, 더 깊은 모델로 부터 쉽게 accuracy를 얻을 수 있다는 것을 증명해냈다.VGG nets 보다 8배 깊은 152개의 layers를 가진 residual nets로 ImageNet을 학습하고 평가하여 3.57%라는 매우 작은 error를 보이며 ILSVRC 2015의 왕좌에 올랐다.이외에도, CIFAR-10, COCO의 d..

    [논문읽기] 01-1. GAN with Tensorflow

    GAN with MNIST https://github.com/golbin/TensorFlow-Tutorials/blob/master/09%20-%20GAN/02%20-%20GAN2.py위의 Tutorials를 통해 GAN을 구현해볼 것이다. In [45]:# 필요한 모듈 먼저 불러오기 import tensorflow as tf import matplotlib.pyplot as plt import numpy as np tf.reset_default_graph() 데이터 불러오기In [46]:from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("./mnist/data",one_hot=True) ..

    [논문읽기] 01. Generative Adversarial Nets : GAN

    " 생성사(Generator)와 식별자(Discriminator)의 선의의 경쟁 " 0. Abstract 두 명의 플레이어가 하는 "minmax-game"의 형태이다.D는 G의 성능을 minimize하는 것, G는 D가 실수할 확률을 최대화(max)하는 것이 학습 과정이다.최선의 Solution은 G가 기존 training data 분포에서 뽑아내고 D가 식별 할 때, 12로 서로의 성능이 동일하다.전체 과정은 Backpropagation으로 학습 가능하다. 1. Introduction 이전의 생성 모델들은 큰 임팩트가 없었는데, MLE와 다른 관련된 과정에서 발생하는 계산 에 있어서, 계산 불가한 확률 연산이 많아서 추정하기가 어려웠기..