Author: 황 유진

Hello there. I am a master's student in the RCV Lab at Sejong University under the advisement of Prof.Yukyung Choi.
Posted in X-Diary

<2022년 RCV 연구실 생활을 마무리 하며>

부제: 석사 1년을 마무리하며 저는 부끄럽게도 사실 성찰을, 특히 글로 작성하여 공유를 자주 즐기는 타입이 아닙니다. 매년 X-Diary 작성을 하면서도 일기 작성과 같이 주저리주저리 적었던…

Continue Reading
Posted in Paper X-Review

[neurips2019]Compacting, Picking and Growing for Unforgetting Continual Learning

Introduction 본 논문은 incremental learning에 관한 논문입니다. figure2에서 방법론의 저력을 확인할 수 있는데요 기존 방법론인 Dynamic-expansion Net(DEN)[1]대비 좋은 성능을 보임을 확인할 수 있습니다. 본 포스트에서는…

Continue Reading
Posted in X-Review

[CVPR2021]DER: Dynamically Expandable Representation for Class Incremental Learning

논문 소개 본 논문은 incremental learning 문제를 해결하기 위한 논문이다. incremental learning이란, 모델이 지식을 확장하는 학습 방법론 중 하나로, old data로 학습한 모델을 new data로…

Continue Reading
Posted in Paper X-Review

[NeurIPS2020]Learning Loss for Test-Time Augmentation

간단한 소개 본 논문은 test time에 적합한 instance-level의 data augmentation을 위한 방법론을 소개한다. 제안하는 방법론은 입력값을 transformation한 후보들의 loss를 예측하는 보조모듈을 이용하는데, loss가 낮게 예측된…

Continue Reading
Posted in Paper X-Review

[PMLR 2020]Coresets for Data-efficient Training of Machine Learning Models

Open Question:How to select a training data subset that can theoretically and practically performs on par with the full dataset.어떻게 일부 데이터셋으로 전체데이터셋을 학습한것과 같은…

Continue Reading
Posted in Paper X-Review

[WACV2022]Class-Balanced Active Learning for Image Classification

Abstract class-balance가 무너진 long-tail data문제는 deep learning 모델의 학습을 어렵게 하는 문제 중 하나이다. Active learning에서도 data imbalnce문제는 큰 학습 성능 저하를 발생시키는데, 본 논문은…

Continue Reading
Posted in Paper X-Review

[CVPR2022]Contrastive Test-Time Adaptation

Intro본 논문은 test-time adaptation에 constrastive learning을 접목한 논문이다. test-time adaptation이란, domain adaptation에 속하는 연구 분야 중 하나로, source data로 학습된 기본 모델을 target에 맞게 변형하기…

Continue Reading
Posted in Paper X-Review

A Survey on Multi-Task Learning

본 서베이 [Link]는 IEEE 2017에 제출되었습니다. Definition of Multi-Task Learning Multi-Task Learning(MTL)이란 모델이 학습을 더 잘하기 위해 m개의 tasks를 같이 학습하는 것을 의미합니다. MTL에는 다양한…

Continue Reading
Posted in Paper X-Review

[CVPR2022]Exploring the Equivalence of Siamese Self-Supervised Learning via A Unified Gradient Framework

Here’s 학습을 위해서 가공이 되지 않은, 비가공 데이터로부터 학습을 가능하게하는 self-supervised learning은 다양한 연구가 진행되어왔다. 또한 현시점에서 일반적으로 다음의 3가지 관점으로 나뉜다: 1) contrastive learning(MoCo),…

Continue Reading
Posted in Paper X-Review

[CVPR2022]Leverage Your Local and Global Representations: A New Self-Supervised Learning Strategy

Here! (용어가 익숙하지 않으신 분은 overview 먼저 읽으시는 것을 추천드립니다.) 본 논문은 multi-view 기반의 self-supervised learning 연구에서 많은 세종 rcv의 연구원들이 의문을 가졌던, “consistency regularization기반의 학습에서…

Continue Reading