Author: 황 유진

Posted in News

[NeurIPS2019]Experience Replay for Continual Learning

Abstract continual learning은 기존의 경험을 보전해야한다는 문제와 동시에 새로운 정보를 받아들일 수 있어야한다는 문제를 해결해야합니다. 이러한 문제는 서로 반대되는 성격을 지니고 있어 stability-plasticity dilemma를 가진…

Continue Reading
Posted in X-Review

[Nature2022]Three types of incremental learning

Abstract continual learning, incremental learning이라고 불리는 deep learning 학습 기법은 자연지능의 중요한 특징입니다. incremental learning은 시나리오에 따라 크게: task-incremental, domain-incremental, class-incremental learning으로 나눌 수 있는데요,…

Continue Reading
Posted in Paper X-Review

[NeurIPS2019]Uncertainty-based Continual Learning with Adaptive Regularization

♞proposed A fresh interpretation on the KullbackLeibler (KL) divergence term of the variational lower bound for Gaussian mean-field approximation. From this discovery, they proposed a…

Continue Reading
Posted in Paper X-Review

[CVPR2022]Probing Representation Forgetting in Supervised and Unsupervised Continual Learning

What is the point it talking about? 이번 논문 또한 incremental/continual learning(이하 CL)과 관련된 내용입니다. 앞선 세미나 등에서 태스크를 소개하며 말씀드린 것처럼 CL이란 여러가지 과제를…

Continue Reading
Posted in Paper X-Review

[CVPR2021]Prototype Augmentation and Self-Supervision for Incremental Learning

. . . Incremental Learning 소개 지난 주 세미나에서 소개드렸듯이 우선 본 논문의 task인 incremental learning에 대해 소개하고 시작하겠습니다. incremental learning이란 인공지능의 학습에서 새로운 task에…

Continue Reading
Posted in X-Diary

<2022년 RCV 연구실 생활을 마무리 하며>

부제: 석사 1년을 마무리하며 저는 부끄럽게도 사실 성찰을, 특히 글로 작성하여 공유를 자주 즐기는 타입이 아닙니다. 매년 X-Diary 작성을 하면서도 일기 작성과 같이 주저리주저리 적었던…

Continue Reading
Posted in Paper X-Review

[neurips2019]Compacting, Picking and Growing for Unforgetting Continual Learning

Introduction 본 논문은 incremental learning에 관한 논문입니다. figure2에서 방법론의 저력을 확인할 수 있는데요 기존 방법론인 Dynamic-expansion Net(DEN)[1]대비 좋은 성능을 보임을 확인할 수 있습니다. 본 포스트에서는…

Continue Reading
Posted in X-Review

[CVPR2021]DER: Dynamically Expandable Representation for Class Incremental Learning

논문 소개 본 논문은 incremental learning 문제를 해결하기 위한 논문이다. incremental learning이란, 모델이 지식을 확장하는 학습 방법론 중 하나로, old data로 학습한 모델을 new data로…

Continue Reading
Posted in Paper X-Review

[NeurIPS2020]Learning Loss for Test-Time Augmentation

간단한 소개 본 논문은 test time에 적합한 instance-level의 data augmentation을 위한 방법론을 소개한다. 제안하는 방법론은 입력값을 transformation한 후보들의 loss를 예측하는 보조모듈을 이용하는데, loss가 낮게 예측된…

Continue Reading
Posted in Paper X-Review

[PMLR 2020]Coresets for Data-efficient Training of Machine Learning Models

Open Question:How to select a training data subset that can theoretically and practically performs on par with the full dataset.어떻게 일부 데이터셋으로 전체데이터셋을 학습한것과 같은…

Continue Reading