Author: 황 유진
[CVPR2021]DER: Dynamically Expandable Representation for Class Incremental Learning
논문 소개 본 논문은 incremental learning 문제를 해결하기 위한 논문이다. incremental learning이란, 모델이 지식을 확장하는 학습 방법론 중 하나로, old data로 학습한 모델을 new data로…
[NeurIPS2020]Learning Loss for Test-Time Augmentation
간단한 소개 본 논문은 test time에 적합한 instance-level의 data augmentation을 위한 방법론을 소개한다. 제안하는 방법론은 입력값을 transformation한 후보들의 loss를 예측하는 보조모듈을 이용하는데, loss가 낮게 예측된…
[PMLR 2020]Coresets for Data-efficient Training of Machine Learning Models
Open Question:How to select a training data subset that can theoretically and practically performs on par with the full dataset.어떻게 일부 데이터셋으로 전체데이터셋을 학습한것과 같은…
[WACV2022]Class-Balanced Active Learning for Image Classification
Abstract class-balance가 무너진 long-tail data문제는 deep learning 모델의 학습을 어렵게 하는 문제 중 하나이다. Active learning에서도 data imbalnce문제는 큰 학습 성능 저하를 발생시키는데, 본 논문은…
[CVPR2022]Contrastive Test-Time Adaptation
Intro본 논문은 test-time adaptation에 constrastive learning을 접목한 논문이다. test-time adaptation이란, domain adaptation에 속하는 연구 분야 중 하나로, source data로 학습된 기본 모델을 target에 맞게 변형하기…
A Survey on Multi-Task Learning
본 서베이 [Link]는 IEEE 2017에 제출되었습니다. Definition of Multi-Task Learning Multi-Task Learning(MTL)이란 모델이 학습을 더 잘하기 위해 m개의 tasks를 같이 학습하는 것을 의미합니다. MTL에는 다양한…
[CVPR2022]Exploring the Equivalence of Siamese Self-Supervised Learning via A Unified Gradient Framework
Here’s 학습을 위해서 가공이 되지 않은, 비가공 데이터로부터 학습을 가능하게하는 self-supervised learning은 다양한 연구가 진행되어왔다. 또한 현시점에서 일반적으로 다음의 3가지 관점으로 나뉜다: 1) contrastive learning(MoCo),…
[CVPR2022]Leverage Your Local and Global Representations: A New Self-Supervised Learning Strategy
Here! (용어가 익숙하지 않으신 분은 overview 먼저 읽으시는 것을 추천드립니다.) 본 논문은 multi-view 기반의 self-supervised learning 연구에서 많은 세종 rcv의 연구원들이 의문을 가졌던, “consistency regularization기반의 학습에서…
[CVPR2022]Learning Where to Learn in Cross-View Self-Supervised Learning
간단 소개:Self-supervised learning(SSL)은 모델의 학습을 위해 이미지에서 물체의 불변성을 활용한다. 특히 이미지에 서로 다른 augmentations을 적용하여 학습에 사용하는데, 이때 random crop 등으로 object가 손실되거나 misalignment가…
[CVPR2022]Align Representations with Base: A New Approach to Self-Supervised Learning
논문 소개 본 논문은 self-supervised learning의 메인스트림중 하나인 contrastive learning에서 발생하는 collapse 문제를 해결하기 위한 논문이다. 인공지능 모델의 학습에서 collapse 현상이란 모델의 출력이 하나의 형태로 수렴하게되는 경우인데,…
안녕하세요 우진님, 좋은 질문 감사합니다. 이쪽 분야를 접한 이유는 저희 팀 기업 과제가 task가 SAR object detection이고, 과제 팔로우업을 겸해서…