Post

Supervision Interpolation via LossMix: Generalizing Mixup for Object Detection and Beyond

Supervision Interpolation via LossMix: Generalizing Mixup for Object Detection and Beyond

AAAI 2024, 2024-03-04 기준 2회 인용

Task

  • Object Detection
  • Data Augmentation
  • Domain Adaptation

Contribution

  • Classification 에서 data augmentation 을 위해서 Mixup 했던 방식을 Object Detection 에 적용하기에는 한계가 존재
  • Spatial misalignment 문제가 존재 (bounding box 를 Mixup 했을 경우)
  • Supervision Interpolation 으로 해결하겠다

Motivation

alt

기존의 Mixup 하는 방식을 사용했을 경우 왼쪽과 같이 잘못 Interpolation 된 box가 생성된다

다양한 bounding box coordinates 으로 구성되어 있기 때문에 ground truth 의 localization 을 방해하지 않고서는 naively 하게 mixup 할 수 없다

alt

비율을 두고 mixup 을 하고 label 까지 같이 mixup 을 했을 때 noisy data 가 될 수 있다

alt

이미지끼리 mixup 한 이미지를 각각의 label 마다 Loss 부여 -> Supervision Interpolation

Proposed Method

alt

alt

일반적인 Mixup 방식
-> Figure 3 에서와 같이 Noisy data 가 될 수 있다

Supervision Interpolation

alt

이미지만 서로 Mixup
5번 수식과 같이 Supervision Interpolation 하겠다
Loss 를 Interpolation

LossMix

alt

alt

수식 4번, 5번과 거의 동일하지만..
Mixup 된 이미지를 각 Label 에 대해서 Loss 계산
$\lambda$ 를 통해서 interpolation

alt

classification 관점에서 봤을 때
수식 10번은 여기서 제안하는 LossMix
수식 13번은 label 까지 Mixup 해서 학습하는 방식
이 두개가 결국 전개하면 같다 -> LossMix 가 수식 13번과 동일한 효과를 낼 수 있다

alt

alt

Object Detection (Faster RCNN) 에 적용

Domain Adaptation

Adative Teacher 를 사용
(Appendix 이미지 첨부)

alt

Warmup Phase
Source domain 끼리 Mixup
Source domain 과 target domain 의 unlabel data 와 Mixup (이미지만)

alt

Adaptation Phase
Source - Source
Target (pseudo-label) - Target (pseudo-label)
Source - Target (pseudo-label)

Experimental Results

alt

PASCAL VOC 에서의 실험결과
Faster RCNN 에 적용했을 때 성능이 제일 좋다

alt

COCO 에서도 좋다

alt

Ablation Study

alt

Domain Adaptation 실험 결과

This post is licensed under CC BY 4.0 by the author.