Author: 황 유진
[CVPR2022]Probing Representation Forgetting in Supervised and Unsupervised Continual Learning
What is the point it talking about? 이번 논문 또한 incremental/continual learning(이하 CL)과 관련된 내용입니다. 앞선 세미나 등에서 태스크를 소개하며 말씀드린 것처럼 CL이란 여러가지 과제를…
[CVPR2021]Prototype Augmentation and Self-Supervision for Incremental Learning
. . . Incremental Learning 소개 지난 주 세미나에서 소개드렸듯이 우선 본 논문의 task인 incremental learning에 대해 소개하고 시작하겠습니다. incremental learning이란 인공지능의 학습에서 새로운 task에…
<2022년 RCV 연구실 생활을 마무리 하며>
부제: 석사 1년을 마무리하며 저는 부끄럽게도 사실 성찰을, 특히 글로 작성하여 공유를 자주 즐기는 타입이 아닙니다. 매년 X-Diary 작성을 하면서도 일기 작성과 같이 주저리주저리 적었던…
[neurips2019]Compacting, Picking and Growing for Unforgetting Continual Learning
Introduction 본 논문은 incremental learning에 관한 논문입니다. figure2에서 방법론의 저력을 확인할 수 있는데요 기존 방법론인 Dynamic-expansion Net(DEN)[1]대비 좋은 성능을 보임을 확인할 수 있습니다. 본 포스트에서는…
[CVPR2021]DER: Dynamically Expandable Representation for Class Incremental Learning
논문 소개 본 논문은 incremental learning 문제를 해결하기 위한 논문이다. incremental learning이란, 모델이 지식을 확장하는 학습 방법론 중 하나로, old data로 학습한 모델을 new data로…
[NeurIPS2020]Learning Loss for Test-Time Augmentation
간단한 소개 본 논문은 test time에 적합한 instance-level의 data augmentation을 위한 방법론을 소개한다. 제안하는 방법론은 입력값을 transformation한 후보들의 loss를 예측하는 보조모듈을 이용하는데, loss가 낮게 예측된…
[PMLR 2020]Coresets for Data-efficient Training of Machine Learning Models
Open Question:How to select a training data subset that can theoretically and practically performs on par with the full dataset.어떻게 일부 데이터셋으로 전체데이터셋을 학습한것과 같은…
[WACV2022]Class-Balanced Active Learning for Image Classification
Abstract class-balance가 무너진 long-tail data문제는 deep learning 모델의 학습을 어렵게 하는 문제 중 하나이다. Active learning에서도 data imbalnce문제는 큰 학습 성능 저하를 발생시키는데, 본 논문은…
[CVPR2022]Contrastive Test-Time Adaptation
Intro본 논문은 test-time adaptation에 constrastive learning을 접목한 논문이다. test-time adaptation이란, domain adaptation에 속하는 연구 분야 중 하나로, source data로 학습된 기본 모델을 target에 맞게 변형하기…
A Survey on Multi-Task Learning
본 서베이 [Link]는 IEEE 2017에 제출되었습니다. Definition of Multi-Task Learning Multi-Task Learning(MTL)이란 모델이 학습을 더 잘하기 위해 m개의 tasks를 같이 학습하는 것을 의미합니다. MTL에는 다양한…
최신 댓글