Photo News
- 2022.12.30
- 902
강석주 교수 연구팀,
인공지능 분야 Top Conference 'AAAI 2023' Accept
▲(왼쪽부터) 강석주 교수, 심재헌 석사과정, 우현우 석사과정, 공경보 부경대 교수
전자공학과 강석주 교수 연구팀(심재헌, 유현우, 공경보 교수)이 인공지능 분야 top conference 인AAAI 2023에 논문을 발표하게 되었다. 논문은 최근 딥러닝 분야에서 높은 성능을 이룩하고 있는 Transformer의 Decoder를 재구성하여 효율적인 semantic segmentation 모델 구조를 제시한다. Transformer를 비전에 적용한 Vision Transformer가 등장함으로 인해 많은 컴퓨터 비전의 많은 task들에서 높은 성능 향상을 이뤄냈다. 하지만 컴퓨터 비전, 그 중 특히 semantic segmentation 분야에서 Transformer의 Decoder를 탐구하는 연구는 아직 미흡하다. 기존 semantic segmentation 논문들은 class-wise learnable query를 사용하는 classical 한 방법을 사용함으로 인해 encoder의 multi-scale feature를 충분히 활용할 수 없거나 추가적인 pixel decoder를 필요로 함으로써 효율성이 낮아진다. 논문은 encoder의 lowest-level feature를 바로 transformer decoder의 query로 적용하는 방식으로 boundary detail 정보를 higher-level feature들에 충당시키며, 추가적인 decoder 모듈을 필요로 하지 않는 효율적인 semantic segmentation 모델을 설계한다. 이를 통해 기존 semantic segmentation 모델들 대비 높은 성능과 효율성을 달성하였다.
□ 논문명, 저자정보
- 논문제목: FeedFormer: Revisiting Transformer Decoder for Efficient Semantic Segmentation
- 저자 정보 : 심재헌(공동 제 1저자), 유현우(공동 제 1저자), 공경보 교수(공동 제 1저자, 부경대), 강석주 교수(교신저자, 서강대)