Going Deeper with Convolutions (Szegedy et al.) - [2015 CVPR]
·
AI Research Paper Review/Vision
본 논문에서는 GoogLeNet을 소개한다. AlexNet부터 VGGNet까지 모델의 깊이와 성능이 비례한다는 사실을 이용하여 성능 향상을 도모했지만, 네트워크의 깊이가 깊어질수록 연산량 문제와 과적합 문제에 대해 언급하며 이를 해결하고자 Inception 모듈을 소개한다. Inception 모듈을 통해 sparse 구조를 dense 구조로 근사하였고, 특히, 1x1 Conv + ReLU로 차원 축소와 비선형성까지 더하는 효과까지 내었다는 점에서 큰 의의가 있다. 즉, 본 논문은 단순히 큰 모델이 아닌, 주어진 자원을 효율적으로 배분하여 깊이 있는 모델을 만들고자 하였다. 1. 연구 배경2012년 AlexNet이 ILSVRC에서 압도적인 성능을 보이며 딥러닝 기반 비전 연구의 전환점이 되었고, 이어서..