전체 글144 Learning to Generate Novel Domains for Domain Generalization(ECCV 2020) 1. Abstract Domain Generalization(DG)는 여러 개의 source domain으로 학습을 합니다. 하지만 이 source domain간의 diversity에는 제한이 있기 때문에, 모델의 성능을 떨어트립니다. 이를 해결하기 위하여 새로운 도메인 데이터를 만듭니다. 새로 만들어진 도메인과 기존 도메인의 distance를 최대화하도록 하는 것이 목표입니다. 2. Method 2.1 Generating Novel-Domain Data Conditional generator 물결 표시가 만들어진 도메인입니다. conditional generator인 G를 이용하여 새로운 도메인의 데이터를 만듭니다. Objective functions source domain과 augmented dom.. 2022. 2. 14. Learning to Learn Single Domain Generalization(CVPR 2020) 1. Abstract Domain Generalization(DG)에서 worst case는 source domain 하나만 이용 가능할 경우 입니다. 이 문제를 해결하고자 adversarial domain augementation 방법을 이용합니다. meta-learning 기법과 Wassertein Auto-Encoder(WAE)를 이용합니다. 2. Method T는 target doamin, S는 source domain입니다. D는 두 분포 간의 거리입니다. 차이가 제일 큰 도메인에서도 잘 분류하도록 하는 것이 목표입니다. Ltask는 cross entropy입니다. 2.1 Adversarial Domain Augmentation 이 논문은 source domain으로부터 여러 개 도메인을 만드는.. 2022. 2. 13. A Style and Semantic Memory Mechanism for Domain Generalization(ICCV 2021) 1. Abstract 기존의 연구들은 domain 간의 semantic invariance를 중점으로 연구를 했습니다. 하지만 intra-domain style invariance도 중요합니다. 이 논문에서는 intra-domain style invraiance가 DG의 성능과 관련이 있다는 것을 보여준다고 합니다. 'jury'를 통해 도메인 사이의 공통된 semantic feature를 배울 수 있게끔 합니다. 2. Method 2.1 Intra-domain Invariance on Style Features memory bank라는 것을 통해서 domain style invariance를 학습한다고 합니다. 도메인마다 style bank가 있고, 학습을 할 수록 semantic, 즉 class에 상관.. 2022. 2. 8. Domain Generalization via Entropy Regularization(NeurIps 2020) 1. Abstract 기존의 DANN처럼 adversarial learning을 이용하여 feature를 학습하면, feature는 invariant marginal distribution을 가집니다. 새로운 도메인에서 예측할 때에는 conditional distribution의 invariance가 더 중요하다고 합니다. 기존의 방법들은 marginal distribution P(X)가 변한다고 합니다. 반면, P(Y|X)는 전체 도메인에 걸쳐서 안정적으로 유지된다고 합니다. 제가 이해한 바로는 기존의 방법들은 feature의 표현에만 중점을 뒀다면, 이 논문은 feature와 label의 관계에 중점을 둔 것 같습니다. 2. Method 기본 clssification에 관련된 loss입니다. cros.. 2022. 1. 28. Learning to Balance Specificity and Invariancefor In and Out of Domain Generalization(ECCV 2020) 1. Abstract 이 논문은 Domain-specific Mask라는 것을 도입합니다. 논문 제목처럼 domain specificity와 invariant를 balance하게 해주는 역할을 합니다. 이러한 것을 Disentangled Representation 라고 한다고 합니다. domain sepecificity는 특정 domain에서 분류를 잘 하도록 하는 것이고, invariant는 어느 domain에서도 feature가 변하지 않는 것을 의미합니다. 이처럼 target domain이 source domain과 비슷한 면도 있기 때문에, 둘의 균형이 중요하다고 합니다. domain specific을 언급하는 논문은 처음봐서 인상깊네요. 2. Method domain 마다 mask predict.. 2022. 1. 27. Domain Generalization viaModel-Agnostic Learning of Semantic Features(NeurIps 2020) 1. Abstract 이 논문은 meta-learning을 이용한 DG입니다. Source domain을 meta-train meta-test로 나누고, 이를 이용하여 model-agnostic learning을 합니다. global 적으로 inter-class relationship에 대한 knowledge를 유지하기 위해서 soft confusion matrix를 이용합니다. local적으로는 domain independent class-specific cohesion과 샘플 feature의 separation을 metric-learning을 이용해 향상시킵니다. 2. Method 2.1 Model_agnostic Learning with Episodic Training 이 논문의 key는 episo.. 2022. 1. 25. 이전 1 ··· 8 9 10 11 12 13 14 ··· 24 다음