본문 바로가기
computer vision/Doamin Generalization

Learning to Generate Novel Domains for Domain Generalization(ECCV 2020)

by 하용권 2022. 2. 14.

1. Abstract

Domain Generalization(DG)는 여러 개의 source domain으로 학습을 합니다. 하지만 이 source domain간의 diversity에는 제한이 있기 때문에, 모델의 성능을 떨어트립니다. 이를 해결하기 위하여 새로운 도메인 데이터를 만듭니다. 새로 만들어진 도메인과 기존 도메인의 distance를 최대화하도록 하는 것이 목표입니다.

 

2. Method

2.1 Generating Novel-Domain Data

 

 Conditional generator

물결 표시가 만들어진 도메인입니다. conditional generator인 G를 이용하여 새로운 도메인의 데이터를 만듭니다.

 

 Objective functions

source domain과 augmented domain의 distance는 커야 합니다. 여기서 d는 distance입니다.

augmented domain 간의 distance도 커야 합니다. k1, k2는 서로 다른 도메인입니다.

 

2.2 Maintating Semantic Consistency

위 과정들은 diverse한 데이터는 만들지만, semantic한 정보는 없습니다.

 

Cycle-consistency loss

만들어진 이미지를 다시 원래대로 잘 되돌리도록 합니다. cycle gan의 방법을 가져온 것 같습니다.

 

Cross-entropy loss

만들어진 이미지의 레이블을 예측한 것과 source domain의 레이블이 같아야 합니다. 

 

2.3 Training

 

Generator training

Task model training

논문에서 알파는 0.5로 설정했다고 합니다. 또한 source domain의 개수와 augmented domain의 개수는 같습니다.

 

2.4 Design of Dirstribution Divergence Measure

 

기존의 논문들과는 다르게  diversity를 최대화해야 합니다. 그렇기 때문에, KL divergence는 사용할 수 없습니다. 만약에 distribution이 겹치지 않는다면, 이는 무한대가 되기 때문입니다. 그렇기 때문에 이 논문에서 cosine distance를 이용합니다.

 

3. Experiment

 

 

이 논문에서는 novel domain의 중요성을 강조합니다. a의 L2A-OT와 기존의 GAN을 이용하여 만들었을 경우의 accuracy차이가 엄청난 것을 확인할 수 있습니다.

 

또한 semantic constraint도 중요하다고 합니다. sematic이 없을 경우에는 b의 가운데 그림처럼 아무 정보도 없는 이상한 그림이 나오기 때문에, 이를 이용하여 학습하면 성능이 많이 떨어질 것입니다.

 

기존의 방법보다 만들어진 domain이 거의 겹치지 않는 것을 확인할 수 있습니다.

반응형