Author: 황 유진

Hello there. I am a master's student in the RCV Lab at Sejong University under the advisement of Prof.Yukyung Choi.
Posted in Paper X-Review

[NeurIPS2021]Batch Active Learning at Scale

Intro 본 논문은 이전 연구에서 고려하지 않았던 large batch size(기존의 약 2배, 100K~1M)를 갖는 active learning 알고리즘을 위한 Cluster-Margin Algorithm이라는 방법론을 제안하는 논문이다. 매우 큰…

Continue Reading
Posted in Paper X-Review

[NeurIPS2022]LADA: Look-Ahead Data Acquisition via Augmentation for Deep Active Learning

Intro 해당 논문은 data augmenation과 active learning을 결합한 논문입니다. 두 방법론은 모두 딥러닝 모델의 학습 데이터가 부족한 상황에서 이를 효과적으로 해결하기 위한 대책입니다. 두 접근법이…

Continue Reading
Posted in X-Review

[CVPR2022]Not All Labels Are Equal: Rationalizing The Labeling Costs for Training Object Detection

요약: 검출기(detector)의 확신도(confidence)에 기반한 다양한 능동 학습(Active Learning)이 많다. 이들 방법론은 한가지 문제점을 내포하고 있는데, 예측이 잘 작동하는 이른바 high-performing classes를 위해 설계된 것이 일반적이며…

Continue Reading
Posted in X-Review

[CVPR2022]Active Learning by Feature Mixing

Abstract Active Learning(AL)이란 무엇인가요? 능동 학습으로 직역되는 AL은 사람이 모델에게 학습할 데이터셋인 training set을 구축하는 것 처럼 학습의 주체인 모델이 능동적으로 training set을 구축하여 학습을…

Continue Reading
Posted in Paper X-Review

[CVPR2021]Multiple Instance Active Learning for Object Detection

목적: instance leverl의 uncertainty를 측정하여 object detector를 학습하기 위한 정보가 가장 많은 이미지를 선택하는 모듈, Multiple Instance Active Object Detecion (MI-AOD) 제안. 간단한 원리 소개:…

Continue Reading
Posted in News

[NeurIPS2019]Experience Replay for Continual Learning

Abstract continual learning은 기존의 경험을 보전해야한다는 문제와 동시에 새로운 정보를 받아들일 수 있어야한다는 문제를 해결해야합니다. 이러한 문제는 서로 반대되는 성격을 지니고 있어 stability-plasticity dilemma를 가진…

Continue Reading
Posted in X-Review

[Nature2022]Three types of incremental learning

Abstract continual learning, incremental learning이라고 불리는 deep learning 학습 기법은 자연지능의 중요한 특징입니다. incremental learning은 시나리오에 따라 크게: task-incremental, domain-incremental, class-incremental learning으로 나눌 수 있는데요,…

Continue Reading
Posted in Paper X-Review

[NeurIPS2019]Uncertainty-based Continual Learning with Adaptive Regularization

♞proposed A fresh interpretation on the KullbackLeibler (KL) divergence term of the variational lower bound for Gaussian mean-field approximation. From this discovery, they proposed a…

Continue Reading
Posted in Paper X-Review

[CVPR2022]Probing Representation Forgetting in Supervised and Unsupervised Continual Learning

What is the point it talking about? 이번 논문 또한 incremental/continual learning(이하 CL)과 관련된 내용입니다. 앞선 세미나 등에서 태스크를 소개하며 말씀드린 것처럼 CL이란 여러가지 과제를…

Continue Reading
Posted in Paper X-Review

[CVPR2021]Prototype Augmentation and Self-Supervision for Incremental Learning

. . . Incremental Learning 소개 지난 주 세미나에서 소개드렸듯이 우선 본 논문의 task인 incremental learning에 대해 소개하고 시작하겠습니다. incremental learning이란 인공지능의 학습에서 새로운 task에…

Continue Reading