Author: 황 유진
[CVPR2021]DER: Dynamically Expandable Representation for Class Incremental Learning
논문 소개 본 논문은 incremental learning 문제를 해결하기 위한 논문이다. incremental learning이란, 모델이 지식을 확장하는 학습 방법론 중 하나로, old data로 학습한 모델을 new data로…
[NeurIPS2020]Learning Loss for Test-Time Augmentation
간단한 소개 본 논문은 test time에 적합한 instance-level의 data augmentation을 위한 방법론을 소개한다. 제안하는 방법론은 입력값을 transformation한 후보들의 loss를 예측하는 보조모듈을 이용하는데, loss가 낮게 예측된…
[PMLR 2020]Coresets for Data-efficient Training of Machine Learning Models
Open Question:How to select a training data subset that can theoretically and practically performs on par with the full dataset.어떻게 일부 데이터셋으로 전체데이터셋을 학습한것과 같은…
[WACV2022]Class-Balanced Active Learning for Image Classification
Abstract class-balance가 무너진 long-tail data문제는 deep learning 모델의 학습을 어렵게 하는 문제 중 하나이다. Active learning에서도 data imbalnce문제는 큰 학습 성능 저하를 발생시키는데, 본 논문은…
[CVPR2022]Contrastive Test-Time Adaptation
Intro본 논문은 test-time adaptation에 constrastive learning을 접목한 논문이다. test-time adaptation이란, domain adaptation에 속하는 연구 분야 중 하나로, source data로 학습된 기본 모델을 target에 맞게 변형하기…
A Survey on Multi-Task Learning
본 서베이 [Link]는 IEEE 2017에 제출되었습니다. Definition of Multi-Task Learning Multi-Task Learning(MTL)이란 모델이 학습을 더 잘하기 위해 m개의 tasks를 같이 학습하는 것을 의미합니다. MTL에는 다양한…
[CVPR2022]Exploring the Equivalence of Siamese Self-Supervised Learning via A Unified Gradient Framework
Here’s 학습을 위해서 가공이 되지 않은, 비가공 데이터로부터 학습을 가능하게하는 self-supervised learning은 다양한 연구가 진행되어왔다. 또한 현시점에서 일반적으로 다음의 3가지 관점으로 나뉜다: 1) contrastive learning(MoCo),…
[CVPR2022]Leverage Your Local and Global Representations: A New Self-Supervised Learning Strategy
Here! (용어가 익숙하지 않으신 분은 overview 먼저 읽으시는 것을 추천드립니다.) 본 논문은 multi-view 기반의 self-supervised learning 연구에서 많은 세종 rcv의 연구원들이 의문을 가졌던, “consistency regularization기반의 학습에서…
[CVPR2022]Learning Where to Learn in Cross-View Self-Supervised Learning
간단 소개:Self-supervised learning(SSL)은 모델의 학습을 위해 이미지에서 물체의 불변성을 활용한다. 특히 이미지에 서로 다른 augmentations을 적용하여 학습에 사용하는데, 이때 random crop 등으로 object가 손실되거나 misalignment가…
[CVPR2022]Align Representations with Base: A New Approach to Self-Supervised Learning
논문 소개 본 논문은 self-supervised learning의 메인스트림중 하나인 contrastive learning에서 발생하는 collapse 문제를 해결하기 위한 논문이다. 인공지능 모델의 학습에서 collapse 현상이란 모델의 출력이 하나의 형태로 수렴하게되는 경우인데,…
최신 댓글