Author: 황 유진
[WACV2022]Class-Balanced Active Learning for Image Classification
Abstract class-balance가 무너진 long-tail data문제는 deep learning 모델의 학습을 어렵게 하는 문제 중 하나이다. Active learning에서도 data imbalnce문제는 큰 학습 성능 저하를 발생시키는데, 본 논문은…
[CVPR2022]Contrastive Test-Time Adaptation
Intro본 논문은 test-time adaptation에 constrastive learning을 접목한 논문이다. test-time adaptation이란, domain adaptation에 속하는 연구 분야 중 하나로, source data로 학습된 기본 모델을 target에 맞게 변형하기…
A Survey on Multi-Task Learning
본 서베이 [Link]는 IEEE 2017에 제출되었습니다. Definition of Multi-Task Learning Multi-Task Learning(MTL)이란 모델이 학습을 더 잘하기 위해 m개의 tasks를 같이 학습하는 것을 의미합니다. MTL에는 다양한…
[CVPR2022]Exploring the Equivalence of Siamese Self-Supervised Learning via A Unified Gradient Framework
Here’s 학습을 위해서 가공이 되지 않은, 비가공 데이터로부터 학습을 가능하게하는 self-supervised learning은 다양한 연구가 진행되어왔다. 또한 현시점에서 일반적으로 다음의 3가지 관점으로 나뉜다: 1) contrastive learning(MoCo),…
[CVPR2022]Leverage Your Local and Global Representations: A New Self-Supervised Learning Strategy
Here! (용어가 익숙하지 않으신 분은 overview 먼저 읽으시는 것을 추천드립니다.) 본 논문은 multi-view 기반의 self-supervised learning 연구에서 많은 세종 rcv의 연구원들이 의문을 가졌던, “consistency regularization기반의 학습에서…
[CVPR2022]Learning Where to Learn in Cross-View Self-Supervised Learning
간단 소개:Self-supervised learning(SSL)은 모델의 학습을 위해 이미지에서 물체의 불변성을 활용한다. 특히 이미지에 서로 다른 augmentations을 적용하여 학습에 사용하는데, 이때 random crop 등으로 object가 손실되거나 misalignment가…
[CVPR2022]Align Representations with Base: A New Approach to Self-Supervised Learning
논문 소개 본 논문은 self-supervised learning의 메인스트림중 하나인 contrastive learning에서 발생하는 collapse 문제를 해결하기 위한 논문이다. 인공지능 모델의 학습에서 collapse 현상이란 모델의 출력이 하나의 형태로 수렴하게되는 경우인데,…
[CVPR2022]A Simple Data Mixing Prior for Improving Self-Supervised Learning
한줄 소개: Self supervised learning에 적용하기 위한 최고의 Data Mixing 기술 본 논문은 self-supervised setting에 적용하여 데이터 증폭을 통해 학습의 효율성을 높일 수 있는 새로운…
2022년 상반기를 마무리하며
어느새 일반적인 석사기간의 1/4 가 지났습니다. 석사생이 되면 많은것이 바뀔 줄 알았는데 생각보다 그렇지 않네요. 2022년도 상반기와 학부연구생 기간을 비교해보면 아무래도 과제에 대한 느낌이 많이…
[CVPR2022]Hypergraph-Induced Semantic Tuple Loss for Deep Metric Learning
* Intro [go to paper👋] * Triplet loss 는 직관적인 metric learning 방법론 중 하나이다. metric learning이란, 데이터간의 유사도를 거리기반으로 표현할 수 있는 인코더 f를…
최신 댓글