일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- ViT
- Segmentation
- 머신러닝
- object detection
- Ai
- 딥러닝
- 파이썬
- 옵티마이저
- Self-supervised
- 논문리뷰
- 알고리즘
- cnn
- 논문 리뷰
- pytorch
- 논문구현
- Convolution
- 인공지능
- 파이토치
- 논문
- transformer
- programmers
- 프로그래머스
- opencv
- Paper Review
- Computer Vision
- 코드구현
- optimizer
- 코딩테스트
- Python
- Semantic Segmentation
- Today
- Total
목록머신러닝 (50)
Attention please
다양한 convolution 기법들 original convolution dilated convolution separable & depthwise & pointwise convolution depthwise separable convolution 이번 글에서는 Transposed Convolution에 대해 알아보자. 이 convolution 기법은 Deconvolution 이라는 이름으로 많이 쓰이지만 이는 잘못된 표현이다. Deconvolution은 이전의 convolution 작업을 되돌려 output을 원본 input으로 되돌리는 것이다. Transposed Convolution 역시 같은 spatial dimension을 만들어낸다는 점에서 Deconvolution과 유사하지만 Transpos..
다양한 convolution 기법들 original convolution Transposed convolution separable & depthwise & pointwise convolution depthwise separable convolution CNN 모델은 input data 와 kernel을 convolution하여 feature를 추출한다. 일반적인 Convolution 기법은 다음과 같다. 하지만 object detection이나 object segmentation과 같은 경우 객체 주변이나 주위의 환경에 대해 판단하기 위해 contextual information을 확보하는 것이 중요한데 이를 위해서는 더 넓은 receptive field를 고려해야한다. 하지만 기존의 Convoluti..
이번에 리뷰할 논문은 "EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks" 이다. 본 논문에서 제안한 EfficientNet은 ImageNet 데이터셋의 classification task에 SOTA에 달성하였다. 본 논문의 부제목을 살펴보면 "CNN 모델들을 모델 scaling하는 방법에 대해 다시 생각해보자" 이다. 즉, 모델을 scaling하는 방법들에 대해 실험을 하여 보다 효율적인 성능을 내도록 하는 것이 본 논문의 목적인데, 이 효율적이라 함은 적은 파라미터의 수로 좋은 성능을 낸다는 것에 있다. 다음 figure와 같이 모델의 파라미터 수와 정확도를 비교한 표이다. 다른 모델들은 파라미터의 수가 많아지는 것에 비..
이번에 리뷰할 논문은 "Squeeze-and-Excitation Networks" 이다. SENet은 2017년 ImageNet 대회에서 우승을 차지한 모델이다. top-error가 2.251%로 사람의 error rate 인 5%보다 적은 수치를 달성하기도 했다. 논문의 제목을 읽어보면 Squeeze(짜내다)와 Excitation(활성화) 한 network라고 한다. 본 논문에서는 기존의 어떤 모델들과도 적용할 수 있는 SE block이라는 것을 제안했는데 이때 이 블럭의 과정이 squeeze하고 excitation을 한다고 하여 SE block이라고 한다. SE block은 기존 모델인 VGGNet, GoogLeNe, ResNet 에 첨가되어 성능이 향상되는 동시에 하이퍼 파라미터는 많이 늘지 않아서..
이번에 리뷰할 논문은 "Aggregated Residual Transformations for Deep Neural Networks " 이다. CNN의 성능을 높이기 위해 가장 먼저 드는 생각은 깊고(dimension) 넓게(scale) 만드는 것이다. 하지만 본 논문에서는 저 두가지가 아닌 cardinality를 키우는 것에 초점을 맞추었다. cardinality : the size of the set of transformations (똑같은 형태의 블록 개수) Split - Transform - Merge 즉, 같은 block을 반복하여 구축하는 것이 모델의 깊이와 넓이를 크게 가져가는 것보다 정확도에 더 큰 영향을 미친다는 것인데 이는 Inception module과 비슷한 형태를 가진다. res..
이번에 리뷰할 논문은 "Xception: Deep Learning with Depthwise Separable Convolutions " 이다. 구글에서 2014년에 GoogLeNet이라는 모델을 제시하였고 이때 Inception module이라는 개념이 등장하였다. Xception은 이 Inception module을 기반으로 만들어진 모델이며, "Extreme Inception" 의 줄임말이다. Inception Module 본 논문은 Inception v3 로부터 Xception 모델까지 가는 과정을 담고 있다. Inception v1 (GoogLeNet)과는 약간의 차이가 있는데 구조는 다음과 같다. Inception v1 과 다른점은 5x5 Convolution 층을 3x3 Convolution..