개요 및 연구동기
합성곱신경망을 위한 간단하면서도 효과적인 attention module 인 CBAM을 제안한다. 채널과 공간의 두 가지 개별 차원을 따라 attention map을 순차적으로 추론한 다음 adaptive feature refinement 를 위해 attention map 을 입력 feature 에 곱한다.
CBAM 은 가볍고 general 한 모듈이기 때문에 적은 오버헤드로 CNN 구조에 통합할 수 있으며 end-to-end 학습이 가능하다. 광범위한 실험으로 성능을 검증한다.
attention 은 집중해야 할 부분을 알려줄 뿐만 아니라 representation power 도 향상시킨다. 채널과 공간에서 무엇과 어디에 집중할지 학습할 수 있도록 한다.
3. Convolutional Block Attention Module
참고자료
https://github.com/Jongchan/attention-module
GitHub - Jongchan/attention-module: Official PyTorch code for "BAM: Bottleneck Attention Module (BMVC2018)" and "CBAM: Convoluti
Official PyTorch code for "BAM: Bottleneck Attention Module (BMVC2018)" and "CBAM: Convolutional Block Attention Module (ECCV2018)" - GitHub - Jongchan/attention-module: Officia...
github.com
'컴퓨터과학' 카테고리의 다른 글
[논문읽기] Action Recognition in Video Sequences using Deep Bi-Directional LSTM With CNN Features (0) | 2023.05.30 |
---|---|
[논문읽기] BEIT: BERT Pre-Training of Image Transformers (0) | 2023.05.27 |
[논문읽기] REINFORCED ACTIVE LEARNING FOR IMAGE SEGMENTATION (0) | 2023.05.22 |
맥 애플실리콘(m1~) 에서 pytorch 사용할 때 체크리스트 (0) | 2023.05.17 |
[논문읽기] Do Convnets Learn Correspondence? (0) | 2023.05.17 |
댓글