본문 바로가기
컴퓨터과학

[논문읽기] CBAM: Convolutional Block Attention Module

by 홈카페주인 2023. 5. 27.

개요 및 연구동기

합성곱신경망을 위한 간단하면서도 효과적인 attention module 인 CBAM을 제안한다. 채널과 공간의 두 가지 개별 차원을 따라 attention map을 순차적으로 추론한 다음 adaptive feature refinement 를 위해 attention map 을 입력 feature 에 곱한다. 

 

CBAM 은 가볍고 general 한 모듈이기 때문에 적은 오버헤드로 CNN 구조에 통합할 수 있으며 end-to-end 학습이 가능하다. 광범위한 실험으로 성능을 검증한다. 

 

attention 은 집중해야 할 부분을 알려줄 뿐만 아니라 representation power 도 향상시킨다. 채널과 공간에서 무엇과 어디에 집중할지 학습할 수 있도록 한다. 

 

 

3. Convolutional Block Attention Module

 

 

 

참고자료

 

https://openaccess.thecvf.com/content_ECCV_2018/papers/Sanghyun_Woo_Convolutional_Block_Attention_ECCV_2018_paper.pdf

https://github.com/Jongchan/attention-module

 

GitHub - Jongchan/attention-module: Official PyTorch code for "BAM: Bottleneck Attention Module (BMVC2018)" and "CBAM: Convoluti

Official PyTorch code for "BAM: Bottleneck Attention Module (BMVC2018)" and "CBAM: Convolutional Block Attention Module (ECCV2018)" - GitHub - Jongchan/attention-module: Officia...

github.com

 

728x90

댓글