본문 바로가기

computer vision/Doamin Generalization16

FedDG: Federated Domain Generalization on Medical Image Segmentation via Episodic Learning in Continuous Frequency Space(CVPR 2021) 이 논문은 Federated learning과 domain generalization을 합친 느낌입니다. Federated learning(FL)은 privacy를 지켜줄 수 있는 방법입니다. 서버에서 최근 모델을 불러와서, local client들이 자신들의 데이터로 모델을 학습합니다. 그 후에 서버에서는 client들의 파라미터 값을 합쳐서 모델을 업데이트합니다. 1. Introduction 기존 FL은 internal client에서 성능을 향상하는 것을 목적으로 합니다. 문제는 이렇게 하면 unseen domain에서 잘 작동을 하지 않습니다. 특히 medical에서는 scanner나 protocol이 다양하기 때문에 data distribution이 꽤 다를 수 있어서 문제가 됩니다. 이 논문은.. 2022. 5. 16.
A Fourier-based Framework for Domain Generalization(CVPR 2021) 1. Introduction 이 논문은 푸리에 변환을 이용한 data augmentation에 관한 논문입니다. 푸리에 변환은 이미지를 주파수 도메인으로 나타낼 수 있습니다. 이미지에서 주파수는 픽셀 값이 얼마나 빨리 변하는지를 의미합니다. 푸리에 변환에서 phase는 high-level statistic을 가지고 있고, amplitude 는 low-level statistic을 가지고 있습니다. 이 논문에서는 phase는 유지하고 amplitude를 바꿈으로써, semantic한 정보는 유지하면서 다른 domain의 데이터를 생성하도록 합니다. 또한 Co-teacher regularization을 통해 두 데이터 간의 class relationship을 유지시켜 줍니다. 2. Method 2.1 Fou.. 2022. 4. 15.
(MIRO) Domain Generalization by Mutual-Information Regularization with Pre-trained Models 이 논문은 kakao brain의 논문입니다. 수식이 좀 있습니다. 1. Introduction source domain만 이용하면, domain이 급격하게 변할 때 domain invariant한 representation을 학습할 수 없습니다. oracle model의 mutual information을 이용하여 이와 같은 문제를 해결합니다. oracle model에 대해서는 뒤에서 살펴보겠습니다. 이 논문은 domain-invariant feature를 학습하는 대신에, "oracle" representation이랑 비슷한 feature를 배우도록 합니다. oracle model(어떤 도메인에서든 잘 작동하는 모델로 전 이해했습니다.)의 representation과 target model의 repr.. 2022. 4. 13.
(SEDGE)Domain Generalization using Pretrained Models without Fine-tuning(arXiv 2022) 1. Introduction 기존의 방법들은 pretrained model을 가져와서 fine-tuning하는 방법을 많이 이용합니다. fine-tuning의 문제점은 모델이 커질 수록, 계산이 매우 많아집니다. 그리고 source domain에 overfitting 됩니다. 이 그래프를 보면, fine tuning을 하게 되면 학습하는 parameter가 엄청나게 많은 것을 알 수 있습니다. 일반적으로, preatrinaed model은 gerneralization ability를 어느 정도는 가지고 있고, specific한 domain의 성능은 좋습니다. 세로는 모델들이고 가로는 각 도메인과 클래스에 대한 성능입니다. 표는 도메인,클래스 간의 KL-divergence입니다. 이러한 문제를 해결하기 위.. 2022. 4. 1.
Reducing domain gap by reducing style bias(CVPR 2021) 1. Abstract CNN의 inductive bias는 image style(texture)를 중점으로 할 경우가 많습니다. 이 논문은 CNN의 intrinsic style bias를 줄여서 domain 사이의 gap을 가깝게 하는 것이 목접입니다. Style-Agnostic Networks(SagNets)는 class 정보로부터 style 인코딩을 분리하여 style biased 예측을 방지하고 content(class)에 좀 더 집중하도록 한다고 합니다. 2. Introduction 사람은 content를 기준으로 사물을 인식합니다. 강아지가 art이든, 흑백이든, photo이든 저흰 다 구별을 할 수 있습니다. 하지만 CNN은 style에 중점을 두기 때문에, 인식을 잘 못합니다. 이러한 ind.. 2022. 3. 18.
(DSON)Learning to Optimize Domain Specific Normalization for Domain Generalization (ECCV 2019) 1. Abstract 이 논문은 여러가지 normalization 기법을 이용하여 해결합니다. batch normalization(BN)은 도메인 이동이 큰 곳에서는 한계가 있습니다. 그렇기 때문에 domain specific style을 제거할 필요가 있습니다. 이를 하기 위해서 Instance normalization(IN)을 이용합니다. 2. Method F는 feature extractor입니다. normalization 파트를 제외한 나머지 parameter들은 domain끼리 서로 공유합니다. D는 classifier입니다. 하나만 이용합니다. 모든 도메인의 loss를 더해서 최종으로 학습하게 됩니다. 2.1 Instance Normalization for Domain Generalizatio.. 2022. 3. 11.