Post

Less is More: Focus Attention for Efficient DETR

Less is More: Focus Attention for Efficient DETR

ICCV 2023, 2024-01-29 기준 3회 인용

Task

  • Object Detection
  • DETR

Contribution

  • Focus attention on more informative tokens
  • 이를 위해서 token scoring mechanism 을 제안 - Foreground Token Selector (FTS)
  • Encoder 에서 dual attention 구조를 설계
  • 이를 통해서 효과적으로 background queries 를 abandon

alt

tokens 을 sparse 하게 가져가는 Sparse DETR

  • 불필요한 background 가 포함되어 있다
  • 필요한 foreground 가 제거되었다
  • 이는 Deocder의 Cross attention map 에 의지하기 때문이다

this monotonous sparse encoder, the number of retained foreground tokens remains numerous

alt

제안하는 방법을 DINO 에 적용했을 때 GFLOPs 와 Latency 가 감소한다

Proposed Method

alt

Scoring mechanism

Multi-scale features를 활용
여러 scale 의 tokens 들을 겹쳐서 구성

overlap of the adjacent interval by 50%
ensuring that the multiscale feature map predicts object heterogeneity

alt

GT box 를 활용해서 label assignment
GT box 안에 있거나, 해당 token이 구성된 scale range 안에 드는 경우 (인접한 scale 끼리 구성했기 때문에?)
Figure 3 과 같이 각 level 에 대해서 supervision

alt

Top-down 방식으로 진행
High-level -> Low-level

Considering that high-level feature maps contain richer semantic than low-level features

alt

$\alpha$ - learnable modulation coefficients

alt

Sparse DETR 에 비해서 제안하는 방법의 foreground tokens 가 더 좋다고 주장

alt

MLP 를 통해서 score 를 구하고 곱해준다 -> 그 다음에 Top-k 개 선택

Calculation Process of Dual Attention

alt

Dual Attention 은 단순하게 일반 Self-attention 하고 Deformalbe Attention 하는 방식

the limitation of deformable attention in distant information mixing

Experimental Results

alt

제안하는 방법을 적용했을 때 DINO 의 성능을 최대한 유지시키면서 GFLOPs를 줄이고 FPS 를 증가시킨다

alt

Backbone ResNet-101 에서 다른 방법들과 비교했을 때 성능이 제일 좋다

This post is licensed under CC BY 4.0 by the author.