Author: 황 유진
<2022년 RCV 연구실 생활을 마무리 하며>
부제: 석사 1년을 마무리하며 저는 부끄럽게도 사실 성찰을, 특히 글로 작성하여 공유를 자주 즐기는 타입이 아닙니다. 매년 X-Diary 작성을 하면서도 일기 작성과 같이 주저리주저리 적었던…
[neurips2019]Compacting, Picking and Growing for Unforgetting Continual Learning
Introduction 본 논문은 incremental learning에 관한 논문입니다. figure2에서 방법론의 저력을 확인할 수 있는데요 기존 방법론인 Dynamic-expansion Net(DEN)[1]대비 좋은 성능을 보임을 확인할 수 있습니다. 본 포스트에서는…
[CVPR2021]DER: Dynamically Expandable Representation for Class Incremental Learning
논문 소개 본 논문은 incremental learning 문제를 해결하기 위한 논문이다. incremental learning이란, 모델이 지식을 확장하는 학습 방법론 중 하나로, old data로 학습한 모델을 new data로…
[NeurIPS2020]Learning Loss for Test-Time Augmentation
간단한 소개 본 논문은 test time에 적합한 instance-level의 data augmentation을 위한 방법론을 소개한다. 제안하는 방법론은 입력값을 transformation한 후보들의 loss를 예측하는 보조모듈을 이용하는데, loss가 낮게 예측된…
[PMLR 2020]Coresets for Data-efficient Training of Machine Learning Models
Open Question:How to select a training data subset that can theoretically and practically performs on par with the full dataset.어떻게 일부 데이터셋으로 전체데이터셋을 학습한것과 같은…
[WACV2022]Class-Balanced Active Learning for Image Classification
Abstract class-balance가 무너진 long-tail data문제는 deep learning 모델의 학습을 어렵게 하는 문제 중 하나이다. Active learning에서도 data imbalnce문제는 큰 학습 성능 저하를 발생시키는데, 본 논문은…
[CVPR2022]Contrastive Test-Time Adaptation
Intro본 논문은 test-time adaptation에 constrastive learning을 접목한 논문이다. test-time adaptation이란, domain adaptation에 속하는 연구 분야 중 하나로, source data로 학습된 기본 모델을 target에 맞게 변형하기…
A Survey on Multi-Task Learning
본 서베이 [Link]는 IEEE 2017에 제출되었습니다. Definition of Multi-Task Learning Multi-Task Learning(MTL)이란 모델이 학습을 더 잘하기 위해 m개의 tasks를 같이 학습하는 것을 의미합니다. MTL에는 다양한…
[CVPR2022]Exploring the Equivalence of Siamese Self-Supervised Learning via A Unified Gradient Framework
Here’s 학습을 위해서 가공이 되지 않은, 비가공 데이터로부터 학습을 가능하게하는 self-supervised learning은 다양한 연구가 진행되어왔다. 또한 현시점에서 일반적으로 다음의 3가지 관점으로 나뉜다: 1) contrastive learning(MoCo),…
[CVPR2022]Leverage Your Local and Global Representations: A New Self-Supervised Learning Strategy
Here! (용어가 익숙하지 않으신 분은 overview 먼저 읽으시는 것을 추천드립니다.) 본 논문은 multi-view 기반의 self-supervised learning 연구에서 많은 세종 rcv의 연구원들이 의문을 가졌던, “consistency regularization기반의 학습에서…
안녕하세요. 현우님 좋은 댓글 감사합니다. 네, 현우님이 댓글에 남겨주신 것처럼 Table 3에서 A와 B는 샘플링하는 프레임수가 32개와 4개로 sparse하게 샘플링했을…