Author: 정 의철
[CVPR 2020] Momentum Contrast for Unsupervised Visual Representation Learning
안녕하세요, 정의철 연구원입니다. 이번에 리뷰할 논문은 2020년 CVPR에 발표된 ‘Momentum Contrast for Unsupervised Visual Representation Learning(MoCo)’입니다. 최근에는 self-supervised learning에 대해 공부하고 있는데, 특히 contrastive learning을…
[CVPR 2022]Active Learning for Open-set Annotation
안녕하세요 정의철 연구원입니다. 제가 이번에 리뷰할 논문은 ‘Active Learning for Open-set Annotation’이란 논문입니다. 기존 Active Learning 방법론 연구들은 모두 closed-set 상황에서 적용된 논문이여서 Open-set 상황에서…
[AAAI 2024] Entropic Open-set Active Learning
안녕하세요 정의철 연구원 입니다. 이번에 제가 소개할 논문은 [AAAI 2024] Entropic Open-set Active Learning이란 논문입니다. 지금까지 읽어보았던 Active Learning 논문들은 모두 Closed-set의 상황에서 진행된 연구였는데…
제안서 참여 후기
[제안서 참여] 안녕하세요 정의철 연구원입니다. 이번에는 논문 리뷰가 아닌 X-diary로 작성하게 되었습니다. 저희 다크데이터팀은 2주 동안 기초연구실 과제 제안서를 작성했습니다. 이번 기초연구실 과제에서는 신뢰가능한 대형…
[ECCV 2022] PT4AL: Using Self-Supervised Pretext Tasks for Active Learning
안녕하세요 정의철 연구원입니다. 이번에 제가 리뷰할 논문은 ‘PT4AL: Using Self-Supervised Pretext Tasks for Active Learning’이고 액티브 러닝 방법론에 대한 논문입니다. 그럼 바로 리뷰 시작하겠습니다. 1.Introduction…
[ICLR 2020] Deep Batch active Learning by Diverse, Uncertain Gradient Lower Bounds
안녕하세요 정의철 연구원입니다. 제가 이번에 리뷰할 논문은 ‘ Deep Batch active Learning by Diverse, Uncertain Gradient Lower Bounds’입니다. 이 논문에서는 Batch active Learning에 대한 새로운…
[arXiv 2019] Diverse mini-batch Active Learning
안녕하세요 정의철 연구원입니다. 제가 이번에 리뷰할 논문은 ‘Diverse mini-batch Active Learning’입니다. 기존의 Active Learning은 데이터를 하나씩 선별하였기에 딥 러닝 모델에서는 효율적이지 않습니다. 따라서 이 논문에서는…
[NIPS 2019] BatchBALD: Efficient and Diverse Batch Acquisition for Deep Bayesian Active Learning
안녕하세요 정의철 연구원입니다. 제가 이번에 리뷰할 논문은 BatchBALD(Batch Acquisition for Deep Bayesian Active Learning)입니다. 이는 기존 BALD에서 딥러닝 학습에 적용시키기 위해 batch의 개념을 적용시켜 새롭게…
[ACM Computing Surveys 2021] A Survey of Deep Active Learning
안녕하세요 정의철 연구원입니다. 제가 이번에 리뷰할 논문은 ‘A Survey of Deep Active Learning’입니다. 먼저 Active Learning관련 논문을 리뷰하기 전에 지금까지 Active Learning의 큰 흐름을 잡고난…
[NIPS 2018]How does batch normalization help optimization
안녕하세요 정의철입니다. 제가 이번에 리뷰할 논문은 ‘How does batch normalization help optimization’입니다. Batch Normalization(BatchNorm)은 신경망 학습에 있어서 더 빠르고 안정적인 훈련이 가능하게 만들어주었습니다. 하지만 BatchNorm이…
최신 댓글