728x90
반응형
Sung Kim 님의 "모두의 딥러닝" 강의노트입니다
좋은 강의 감사드립니다!
https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5
Case 1 : LeNet-5
5x5 filter & stride =1
Case2 : AlexNet
input사이즈가 큼
96개의 필터 ( 크기는 11x11x3이고 stride=4)
35k 의 parameter가 필요함
두 번째 pooling 할 때 3x3필터 사용
새로운 Norm layer가 나옴 : 나온 값들을 normalization해주는 것인데, 최근에 들어서는 굳이 할 필요가 없다라고 말한다.
6*6*256 by 4096 행렬로 차원을 축소해주는 process
4096개의 입력을 받아서 4096의 출력을 만들어내는 FC,
4096개를 입력 받아서 1000개의 label을 도출해낸다.
AlexNet에서 ReLU를 도입했고
Dropout & batch size를 썼고
결과물 7개를 합쳤다. ensemble했더니 오류가 3%정도 줄었다.
Case3 : GoogLeNet
입력이 들어가고 병렬적으로 3개를 쓰고 풀링을 하고 conv를하기도 함
다른 형태의 conv를 사용하고 합친다. 하나는 아무과정을 거치지 않고 그냥 FC로 간다.
Case 4 : ResNet
인간이 5%인데 더 낮은 3%의 오차를 보임
이미지와 다른 형태의 대회를 휩쓴 정도이다.
기존 AlexNet은 8개였지만 ResNet은 152개의 layer을 만듬
학습하기가 매우 힘들었을텐데
여기서 중간의 값을 앞의 값에 더해서
합쳐지게 된다.
Layer는 더 많고 복잡하지만 합쳐짐으로써 어떤 의미로 이게 1개의 layer로 합쳐지는 것과 같다. 학습할 때 실제로는 깊지않은 것 처럼 봐서 가능한 것이다.
text를 CNN으로 처리하였다.
19x19는 바둑판의 수를 말한다.
“ The Only Limit Is Your Imagination "
728x90
반응형