Author: 황 유진

Posted in Paper X-Review

[CVPR2022]Towards Discovering the Effectiveness of Moderately Confident Samples for Semi-Supervised Learning

소개 최근 SSL(Semi-supervised learning)은 self-training, consistency regularization 기술 발전에 따라 발전했다. 이 기술들은 보통 confidence를 통해 데이터셋 필터링 과정을 거쳐 unlabeled sample에서 데이터를 선별하였는데, 본…

Continue Reading
Posted in Paper X-Review

[CVPR2022]Propagation Regularizer for Semi-supervised Learning

Intro 본 논문은 labeled data가 매우 적은 상황에서 semi-supervised learning을 할 때 발생할 수 있는 문제점인 confirmation bias 문제를 해결하기 위한 논문으로, 해당 문제의 해결…

Continue Reading
Posted in X-Review

SimMatch: Semi-supervised Learning with Similarity Matching

본 논문은 semi-supervised learning 방법론에 관한 논문이다. 본 논문은 semi-supervised 방식의 핵심 접근법 중 하나인 consistency regularization을 instance-level과 semantic-level 로 동시에 적용하였다. 이를 통해 ImageNet…

Continue Reading
Posted in Paper X-Review

DASO: Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced Semi-Supervised Learning

논문 요약 잘 가공된 labeled data와 unlabeled data는 분포차이(class distribution mismatch)나 편향(class imbalance)가 존재할 수 있다. 본 논문은 이러한 real-world application에서 발생할 수 있는 문제에…

Continue Reading
Posted in Paper X-Review

[ICLR 2020]Reinforced active learning for image segmentation

본 논문은 Reinforce learning 기반으로 sematic segmentatio을 위한 active learning을 진행하기 위한 방법론 이다. Semantic segmentation은 ground truth를 생성하기 위해 많은 cost가 발생하는 task 중…

Continue Reading
Posted in Paper X-Review

Semi-Supervised Learning of Visual Features by Non-Parametrically Predicting View Assignments with Support Samples

소개 본 논문[pdf]은 non-parametrically 한 방식으로 unlabeled image의 psuedo label을 생성하여 학습하는 semi-supervised learning논문이다. labeled image로 구성된 support samples를 이용해 pseudo label을 생성하고 이를 학습에…

Continue Reading
Posted in News

[WACV2022]Hierarchical Proxy-based Loss for Deep Metric Learning

요약:해당 논문은 classification 구조를 갖는 task에서 class간 Hierarchical 구조를 고려할 수 있도록 설계된 Deep metric learning 방법론입니다. 배경 소개: Deep Metric Learning(DML)이란 convolutional neural networks를…

Continue Reading
Posted in Paper X-Review

Boosting Contrastive Self-Supervised Learning with False Negative Cancellation

요약: 본 논문은 self-supervised의 발전을 이끈 contrastive learning의 positive, negative pair의 구성에서 False Negative의 존재에 대해 집중한 논문이다. Introduction: False negative 란 그림에서 보는 repel…

Continue Reading
Posted in Paper X-Review

[ICLR2020]Revisiting Self-Training for Neural Sequence Generation

기존 Self-Training의 경우 classification task에 주로 사용되었으며 비교적 복잡한 sequence generation tasks(예. machine transflation)는 target space의 구성적 특징으로 그 효과가 명확하지 않았다. 본 논문에서는 self-training이…

Continue Reading
Posted in Paper X-Review

Barlow Twins: Self-Supervised Learning via Redundancy Reduction

소개 [arXiv]  Self-supervised learning은 collapsing solution 해결책으로 수렴하는 문제를 가지고 있습니다. collapsing solution의 발생 경위는 다음과 같습니다. 데이터 x를 모델의 입력으로 하여 이에 적합하게 라벨링 된…

Continue Reading