본문 바로가기

computer vision25

Domain Generalization viaModel-Agnostic Learning of Semantic Features(NeurIps 2020) 1. Abstract 이 논문은 meta-learning을 이용한 DG입니다. Source domain을 meta-train meta-test로 나누고, 이를 이용하여 model-agnostic learning을 합니다. global 적으로 inter-class relationship에 대한 knowledge를 유지하기 위해서 soft confusion matrix를 이용합니다. local적으로는 domain independent class-specific cohesion과 샘플 feature의 separation을 metric-learning을 이용해 향상시킵니다. 2. Method 2.1 Model_agnostic Learning with Episodic Training 이 논문의 key는 episo.. 2022. 1. 25.
Episodic Training for Domain Generalization(ICCV 2019) 1. Method 이 논문에서는 meta learning에서 episocic learning 기법이 들어갑니다. 우선 각 domain들의 데이터가 전부 aggregate해서 모델에 들어가는 경우입니다. 이 경우에는 feature extractor, classifier가 하나 있습니다. 그 다음으로는 각 domain 마다 모델을 하나 씩 할당해주는 방법입니다. 이 경우에는 해당 도메인의 데이터에 대해서는 성능이 좋겠지만, 다른 도메인의 데이터가 input으로 들어오면 성능이 나빠질 것입니다. 그 다음으로는 각 도메인의 feature extractor에 다른 domain의 classifier와 결합합니다. 이는 classifier가 학습하는 data point를 인지한다고 합니다. 다음 방법은 앞과 유사합니.. 2022. 1. 22.
Learning from Extrinsic and IntrinsicSupervisions for Domain Generalization(ECCV 2020) 1. Abstract 이 논문은 intrinsic self-supervision과 extrinsic supervision을 결합한 형태입니다. 이 말이 무슨 의미냐면, instrinsic self-supervision은 해당 도메인의 classification하는 능력을 길러주고, extrinsic sueprvsion은 다른 도메인과의 거리를 줄여주는 역할을 하게 됩니다. 자세한 건 뒤에서 살펴보겠습니다. 2. 구조 이는 모델구조 입니다. 우선 Triplet loss에 대해서 살펴보겠습니다. Triplet loss에 관한 그림입니다. Anchor는 임의이 feature이고, Positive는 feature가 anchor의 label과 같은 경우입니다. negative는 label이 틀린 경우입니다. 손실.. 2022. 1. 20.
[semantic segmentation] Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective with Transformers(SETR) Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective with Transformers(CVPR 2021) Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective with Transformers Most recent semantic segmentation methods adopt a fully-convolutional network (FCN) with an encoder-decoder architecture. The encoder progressively reduces the spatial resolution and learns more abstract/s.. 2022. 1. 12.
Lifelong Domain Adaptation via Consolidated InternalDistribution(NeurIPS 2021) https://proceedings.neurips.cc/paper/2021/hash/5caf41d62364d5b41a893adc1a9dd5d4-Abstract.html Lifelong Domain Adaptation via Consolidated Internal Distribution Requests for name changes in the electronic proceedings will be accepted with no questions asked. However name changes may cause bibliographic tracking issues. Authors are asked to consider this carefully and discuss it with their co-auth.. 2022. 1. 5.
DOMAINGENERALIZATION WITH MIXSTYLE https://arxiv.org/abs/2104.02008 1. Domain Generalization(DG) 이란? 우선 domain 이라는 것은 image 의 distribution이 다 다른 것을 뜻합니다. 학습할 때 쓴 domain과 다른 dataset에서는 모델이 잘 작동하지 않는 경우가 발생합니다. 예를 들면, 배경이 낮인 사진으로 모델을 학습했고 현재 환경이 밤이라면 이 모델은 잘 작동하지 않습니다. 그래서 제안된 방법이 DG입니다. DG는 여러 domain의 데이터로 학습을 시키면, unseen domain에서도 잘 작동하도록 하는 것입니다. 2. 구조 하늘 색이랑, 파란 색은 서로 다른 data입니다. (a)는 domain label이 있다고 가정한 상황입니다. domain label이 .. 2021. 12. 3.